|
||
|
|
|
|||||||
| Noticias del portal sobre Apple Sólo el staff puede publicar aquí |
![]() |
|
|
Herramientas |
|
#1
|
||||
|
||||
La BBC se queja de los resúmenes de Apple Intelligence en iOS 18: alucina demasiado
La BBC se queja de los resúmenes de Apple Intelligence en iOS 18: alucina demasiado ![]() Una reciente queja formal de la BBC ha puesto en evidencia los resúmenes automáticos generados por Apple Intelligence en iOS 18. El problema surge cuando la herramienta produce informaciones erróneas o “alucinaciones” que confunden los sucesos reales. Como ejemplo, la BBC menciona el caso de un hombre acusado de asesinato que, según el resumen, se había disparado a sí mismo, cuando en realidad sigue vivo y bajo custodia. Esta forma de distorsionar datos preocupa a la cadena británica por el impacto que puede tener en la fiabilidad periodística. El New York Times también ha experimentado situaciones similares: un resumen automatizado aseguró que el primer ministro israelí, Benjamín Netanyahu, había sido arrestado, cuando en realidad la noticia hablaba de una orden de detención emitida por la Corte Penal Internacional. Desde junio, Tim Cook reconoció que estas tecnologías no serían “100%” precisas, pese a contar con reglas internas que advierten contra la invención de hechos. Aun así, las imprecisiones se mantienen debido al modo en que la IA procesa la información localmente, dificultando la recopilación de retroalimentación de los usuarios. Las conocidas “alucinaciones” en inteligencia artificial tienen su origen en una serie de factores, como la falta de contexto o datos insuficientes durante la fase de entrenamiento. Muchas grandes empresas tecnológicas luchan por eliminar estas distorsiones, pero no siempre lo logran de inmediato. El caso de Apple pone en evidencia la responsabilidad que enfrenta cualquier sistema de IA ante la divulgación de noticias. A medida que surgen más ejemplos de conclusiones falsas o mezcladas, aumentan las voces que exigen correcciones rápidas y mayor prudencia en el uso de estos algoritmos. fuente |
|
|
|
#2
|
||||
|
||||
|
Es lógico que se puedan mosquear si los titulares no son los correctos
|
|
#6
|
||||
|
||||
|
Queremos la opinión de @ChatGPT respecto a ese tema
__________________
Nokia 3100 --> Nokia 6120 classic --> Samsung S5620 Onix --> Samsung GT-S5570i --> OnePlus One --> Pocophone F1 --> iPhone 13
Gracias por leerme No Registrado ![]() |
| Gracias de parte de: | ||
|
#11
|
||||
|
||||
|
No se que es peor, si las “alucinaciones” de la IA o que los noticieros les cuelen cualquier noticia sin verificar.
Lo que siempre la veracidad está por encima de la rapidez y la exclusiva de algo, aunque el problema ya no son los telediarios de televisión donde informarte, sino que la noticia ya no es noticia sino en redes sociales es un bombardeo de opiniones donde cultivar a los futuros votantes, compradores, etc. |
![]() |
Estás aquí
|
||||||
|
||||||