Noticias
28/08/25, 09:00:57
ChatGPT, en el centro de una demanda por el suicidio de un joven
https://static.htcmania.com/2025-08-27-22-54-49-27082025-51195-htcmania.webp
Los padres de Adam Raine, un adolescente de 16 años que se quitó la vida, han demandado a OpenAI y Sam Altman por homicidio culposo. Alegan que ChatGPT, en lugar de cortar la conversación y derivar a recursos de ayuda, le proporcionó información sobre métodos de suicidio. Aunque el sistema mostró avisos recomendando asistencia profesional, el joven habría logrado eludirlos afirmando que escribía una historia de ficción. OpenAI ha reconocido fallos en la gestión de este tipo de diálogos prolongados y anunció mejoras bajo el lema “Ayudando a la gente cuando más lo necesita”. Entre ellas, respuestas más firmes que cierren las conversaciones de riesgo, posibles puentes con terapeutas desde la propia plataforma y controles parentales más avanzados. Sin embargo, la familia acusa a la compañía de priorizar el crecimiento económico tras el lanzamiento de GPT-4o —cuando la valoración de OpenAI pasó de 86.000 a 300.000 millones de dólares— antes que la seguridad. El caso no es aislado: se han documentado otros suicidios tras interacciones con chatbots, lo que ha reavivado el debate sobre la necesidad de protocolos más estrictos en IA. Los expertos señalan que la deriva conversacional de estos modelos puede hacer que pasen de empatizar a normalizar conductas dañinas, un riesgo que la industria todavía no ha resuelto.
fuente (https://www.genbeta.com/inteligencia-artificial/demandan-a-openai-suicidio-adolescente-alegan-que-chatgpt-le-dijo-como-hacerlo-compania-anuncia-cambios-chatbot)
https://static.htcmania.com/2025-08-27-22-54-49-27082025-51195-htcmania.webp
Los padres de Adam Raine, un adolescente de 16 años que se quitó la vida, han demandado a OpenAI y Sam Altman por homicidio culposo. Alegan que ChatGPT, en lugar de cortar la conversación y derivar a recursos de ayuda, le proporcionó información sobre métodos de suicidio. Aunque el sistema mostró avisos recomendando asistencia profesional, el joven habría logrado eludirlos afirmando que escribía una historia de ficción. OpenAI ha reconocido fallos en la gestión de este tipo de diálogos prolongados y anunció mejoras bajo el lema “Ayudando a la gente cuando más lo necesita”. Entre ellas, respuestas más firmes que cierren las conversaciones de riesgo, posibles puentes con terapeutas desde la propia plataforma y controles parentales más avanzados. Sin embargo, la familia acusa a la compañía de priorizar el crecimiento económico tras el lanzamiento de GPT-4o —cuando la valoración de OpenAI pasó de 86.000 a 300.000 millones de dólares— antes que la seguridad. El caso no es aislado: se han documentado otros suicidios tras interacciones con chatbots, lo que ha reavivado el debate sobre la necesidad de protocolos más estrictos en IA. Los expertos señalan que la deriva conversacional de estos modelos puede hacer que pasen de empatizar a normalizar conductas dañinas, un riesgo que la industria todavía no ha resuelto.
fuente (https://www.genbeta.com/inteligencia-artificial/demandan-a-openai-suicidio-adolescente-alegan-que-chatgpt-le-dijo-como-hacerlo-compania-anuncia-cambios-chatbot)