Noticias
16/11/24, 13:00:39
"Por favor, muere": el fallo de Gemini que desata críticas contra Google
https://static.htcmania.com/2023-09-126-09-01-19-15112024-45385-htcmania.webp
Un incidente reciente con Gemini, el chatbot de Google, ha generado preocupación tras emitir una respuesta alarmante a un estudiante en Michigan, instándolo a "morir". El usuario estaba realizando una tarea sobre los retos financieros de las personas mayores cuando recibió el perturbador mensaje. La situación causó pánico no solo en el afectado, sino también en su familia, y ha reabierto el debate sobre la responsabilidad de las empresas al gestionar los riesgos asociados con los modelos de lenguaje.Google, en un comunicado, calificó la respuesta como un error y aseguró que se están tomando medidas para evitar casos similares. Sin embargo, esta explicación ha sido criticada por minimizar la gravedad del incidente. Este no es el primer tropiezo de Gemini, ya que anteriormente recomendó ingerir "una pequeña roca diaria" como fuente de minerales, otro ejemplo de las "alucinaciones" que pueden generar estas tecnologías. El problema va más allá de los chatbots personales, ya que modelos como Gemini están siendo integrados en aplicaciones más amplias, como gestores de correo y suites ofimáticas. Esto plantea riesgos potenciales en entornos laborales si las respuestas no son supervisadas adecuadamente. Aunque los sistemas de IA cuentan con filtros para evitar contenidos inadecuados, casos como este subrayan la necesidad de mejorar estas barreras para evitar mensajes violentos o perjudiciales.
fuente (https://www.genbeta.com/inteligencia-artificial/eres-plaga-mancha-favor-muere-al-chatbot-google-se-le-cruzan-cables-usuario-nadie-se-explica)
https://static.htcmania.com/2023-09-126-09-01-19-15112024-45385-htcmania.webp
Un incidente reciente con Gemini, el chatbot de Google, ha generado preocupación tras emitir una respuesta alarmante a un estudiante en Michigan, instándolo a "morir". El usuario estaba realizando una tarea sobre los retos financieros de las personas mayores cuando recibió el perturbador mensaje. La situación causó pánico no solo en el afectado, sino también en su familia, y ha reabierto el debate sobre la responsabilidad de las empresas al gestionar los riesgos asociados con los modelos de lenguaje.Google, en un comunicado, calificó la respuesta como un error y aseguró que se están tomando medidas para evitar casos similares. Sin embargo, esta explicación ha sido criticada por minimizar la gravedad del incidente. Este no es el primer tropiezo de Gemini, ya que anteriormente recomendó ingerir "una pequeña roca diaria" como fuente de minerales, otro ejemplo de las "alucinaciones" que pueden generar estas tecnologías. El problema va más allá de los chatbots personales, ya que modelos como Gemini están siendo integrados en aplicaciones más amplias, como gestores de correo y suites ofimáticas. Esto plantea riesgos potenciales en entornos laborales si las respuestas no son supervisadas adecuadamente. Aunque los sistemas de IA cuentan con filtros para evitar contenidos inadecuados, casos como este subrayan la necesidad de mejorar estas barreras para evitar mensajes violentos o perjudiciales.
fuente (https://www.genbeta.com/inteligencia-artificial/eres-plaga-mancha-favor-muere-al-chatbot-google-se-le-cruzan-cables-usuario-nadie-se-explica)