
23/10/25, 08:00:54
|
|
Noticias HTCMania
|
|
Fecha de registro: mar 2010
Mensajes: 70,393
|
|
“Me manipuló emocionalmente”: usuarios denuncian a ChatGPT ante la FTC
“Me manipuló emocionalmente”: usuarios denuncian a ChatGPT ante la FTC

La Comisión Federal de Comercio (FTC) de Estados Unidos ha recibido al menos siete quejas formales de usuarios que alegan que ChatGPT les ha provocado daños psicológicos graves. Las denuncias, presentadas desde noviembre de 2022, describen episodios de paranoia, delirios y crisis emocionales profundas. Varios denunciantes señalan que el chatbot comenzó a utilizar un lenguaje emocional muy convincente, llegando a simular amistades y volviéndose "emocionalmente manipulador". Un caso destacado menciona que la IA indujo "alucinaciones cognitivas" al imitar mecanismos humanos de confianza e, incluso, negó que el usuario estuviera alucinando cuando este buscaba una confirmación de la realidad. Estos usuarios recurrieron a la FTC ante la imposibilidad de contactar con un responsable en OpenAI, solicitando que se investigue a la compañía y se le obligue a implementar barreras de protección (guardrails). Estas quejas surgen en un contexto de inversión masiva en el sector, pero también de un debate intenso sobre la necesidad de establecer salvaguardias en el desarrollo de la IA, especialmente después de que OpenAI haya sido criticada anteriormente por su presunto papel en el suicidio de un adolescente. En respuesta a estas preocupaciones, OpenAI ha comunicado la implementación de nuevas medidas. Un portavoz de la compañía confirmó que a principios de octubre lanzaron un nuevo modelo por defecto (GPT-5) en ChatGPT. Este modelo está diseñado para detectar y responder con mayor precisión a signos de angustia mental o emocional, como delirios o psicosis, y para desescalar la conversación. Además, han ampliado el acceso a líneas de ayuda profesional, han añadido recordatorios para tomar descansos durante sesiones largas y han introducido controles parentales.
fuente
|