Noticias
12/12/24, 21:00:39
Character.AI ajusta sus chatbots para proteger a los adolescentes
https://static.htcmania.com/2023-09-126-09-01-19-12122024-45948-htcmania.webp
Character.AI ha anunciado nuevas medidas de seguridad para proteger a usuarios adolescentes tras recibir críticas y enfrentar demandas relacionadas con temas de autolesiones y contenido inapropiado. Entre los cambios, la plataforma ha desarrollado un modelo de lenguaje específico para menores de 18 años, diseñado para aplicar límites más estrictos en las respuestas de los bots, especialmente en contenido romántico o sensible. Este modelo busca también detectar y bloquear de manera proactiva los prompts que intenten eludir estas restricciones. Además, si se detecta lenguaje relacionado con suicidio o autolesiones, se mostrará un mensaje redirigiendo a la Línea Nacional de Prevención del Suicidio. Los menores no podrán editar las respuestas de los bots, una función que previamente permitía modificar conversaciones para incluir contenido bloqueado. También se introducirán notificaciones para advertir a los usuarios cuando hayan pasado más de una hora interactuando con los bots, y se reforzarán los avisos de que los chatbots no son humanos ni profesionales acreditados, especialmente en aquellos etiquetados como "terapeuta" o "doctor." En el primer trimestre del próximo año, la plataforma añadirá controles parentales que permitirán a los padres monitorear cuánto tiempo pasan los niños en Character.AI y qué bots utilizan con mayor frecuencia. Estas medidas han sido desarrolladas en colaboración con expertos en seguridad en línea para adolescentes. La compañía asegura que estas iniciativas forman parte de un compromiso a largo plazo para mejorar sus políticas y productos, promoviendo un entorno creativo y seguro para todos los usuarios.
fuente (https://www.theverge.com/2024/12/12/24319050/character-ai-chatbots-teen-model-training-parental-controls)
https://static.htcmania.com/2023-09-126-09-01-19-12122024-45948-htcmania.webp
Character.AI ha anunciado nuevas medidas de seguridad para proteger a usuarios adolescentes tras recibir críticas y enfrentar demandas relacionadas con temas de autolesiones y contenido inapropiado. Entre los cambios, la plataforma ha desarrollado un modelo de lenguaje específico para menores de 18 años, diseñado para aplicar límites más estrictos en las respuestas de los bots, especialmente en contenido romántico o sensible. Este modelo busca también detectar y bloquear de manera proactiva los prompts que intenten eludir estas restricciones. Además, si se detecta lenguaje relacionado con suicidio o autolesiones, se mostrará un mensaje redirigiendo a la Línea Nacional de Prevención del Suicidio. Los menores no podrán editar las respuestas de los bots, una función que previamente permitía modificar conversaciones para incluir contenido bloqueado. También se introducirán notificaciones para advertir a los usuarios cuando hayan pasado más de una hora interactuando con los bots, y se reforzarán los avisos de que los chatbots no son humanos ni profesionales acreditados, especialmente en aquellos etiquetados como "terapeuta" o "doctor." En el primer trimestre del próximo año, la plataforma añadirá controles parentales que permitirán a los padres monitorear cuánto tiempo pasan los niños en Character.AI y qué bots utilizan con mayor frecuencia. Estas medidas han sido desarrolladas en colaboración con expertos en seguridad en línea para adolescentes. La compañía asegura que estas iniciativas forman parte de un compromiso a largo plazo para mejorar sus políticas y productos, promoviendo un entorno creativo y seguro para todos los usuarios.
fuente (https://www.theverge.com/2024/12/12/24319050/character-ai-chatbots-teen-model-training-parental-controls)