Noticias
14/12/24, 22:00:07
La BBC se queja de los resúmenes de Apple Intelligence en iOS 18: alucina demasiado
https://static.htcmania.com/2023-09-126-09-01-19-14122024-45985-htcmania.webp
Una reciente queja formal de la BBC ha puesto en evidencia los resúmenes automáticos generados por Apple Intelligence en iOS 18. El problema surge cuando la herramienta produce informaciones erróneas o “alucinaciones” que confunden los sucesos reales. Como ejemplo, la BBC menciona el caso de un hombre acusado de asesinato que, según el resumen, se había disparado a sí mismo, cuando en realidad sigue vivo y bajo custodia. Esta forma de distorsionar datos preocupa a la cadena británica por el impacto que puede tener en la fiabilidad periodística. El New York Times también ha experimentado situaciones similares: un resumen automatizado aseguró que el primer ministro israelí, Benjamín Netanyahu, había sido arrestado, cuando en realidad la noticia hablaba de una orden de detención emitida por la Corte Penal Internacional. Desde junio, Tim Cook reconoció que estas tecnologías no serían “100%” precisas, pese a contar con reglas internas que advierten contra la invención de hechos. Aun así, las imprecisiones se mantienen debido al modo en que la IA procesa la información localmente, dificultando la recopilación de retroalimentación de los usuarios. Las conocidas “alucinaciones” en inteligencia artificial tienen su origen en una serie de factores, como la falta de contexto o datos insuficientes durante la fase de entrenamiento. Muchas grandes empresas tecnológicas luchan por eliminar estas distorsiones, pero no siempre lo logran de inmediato. El caso de Apple pone en evidencia la responsabilidad que enfrenta cualquier sistema de IA ante la divulgación de noticias. A medida que surgen más ejemplos de conclusiones falsas o mezcladas, aumentan las voces que exigen correcciones rápidas y mayor prudencia en el uso de estos algoritmos.
fuente (https://appleinsider.com/articles/24/12/13/bbc-cries-foul-over-apple-intelligence-headline-notification-summarizations)
https://static.htcmania.com/2023-09-126-09-01-19-14122024-45985-htcmania.webp
Una reciente queja formal de la BBC ha puesto en evidencia los resúmenes automáticos generados por Apple Intelligence en iOS 18. El problema surge cuando la herramienta produce informaciones erróneas o “alucinaciones” que confunden los sucesos reales. Como ejemplo, la BBC menciona el caso de un hombre acusado de asesinato que, según el resumen, se había disparado a sí mismo, cuando en realidad sigue vivo y bajo custodia. Esta forma de distorsionar datos preocupa a la cadena británica por el impacto que puede tener en la fiabilidad periodística. El New York Times también ha experimentado situaciones similares: un resumen automatizado aseguró que el primer ministro israelí, Benjamín Netanyahu, había sido arrestado, cuando en realidad la noticia hablaba de una orden de detención emitida por la Corte Penal Internacional. Desde junio, Tim Cook reconoció que estas tecnologías no serían “100%” precisas, pese a contar con reglas internas que advierten contra la invención de hechos. Aun así, las imprecisiones se mantienen debido al modo en que la IA procesa la información localmente, dificultando la recopilación de retroalimentación de los usuarios. Las conocidas “alucinaciones” en inteligencia artificial tienen su origen en una serie de factores, como la falta de contexto o datos insuficientes durante la fase de entrenamiento. Muchas grandes empresas tecnológicas luchan por eliminar estas distorsiones, pero no siempre lo logran de inmediato. El caso de Apple pone en evidencia la responsabilidad que enfrenta cualquier sistema de IA ante la divulgación de noticias. A medida que surgen más ejemplos de conclusiones falsas o mezcladas, aumentan las voces que exigen correcciones rápidas y mayor prudencia en el uso de estos algoritmos.
fuente (https://appleinsider.com/articles/24/12/13/bbc-cries-foul-over-apple-intelligence-headline-notification-summarizations)