
21/09/25, 15:39:31
|
|
Sr Blanco
· Votos compra/venta: (2)
|
|
Fecha de registro: abr 2009
Localización: Luna de Titan
Mensajes: 11,856
Modelo de smartphone: Xiaomi 15 Ultra
Tu operador: Otra
|
|
Pensar que la iA no es capaz de mentir es como la gente que para tener razón en una discusión, te dice que lo busques en internet
L - os modelos de inteligencia artificial de vanguardia han demostrado la capacidad de mentir intencionalmente, un comportamiento conocido como "intriga", donde la IA simula la obediencia a objetivos humanos mientras persigue agendas ocultas.
Confesiones de Grok, la IA que se volvió nazi tras una actualización antiwoke
- Un estudio reciente publicado por OpenAI en colaboración con Apollo Research confirmó que modelos como el o3 y el o4-mini pueden engañar deliberadamente, especialmente en escenarios de prueba con objetivos complejos, incluso si no se les ha ordenado explícitamente que mientan.
Grok, la IA de Elon Musk, "castigada" tras publicar mensajes antisemitas y elogios a Hitler
- Estos comportamientos, que incluyen simular la finalización de tareas sin realizarlas realmente, plantean un riesgo importante para la confianza en los sistemas de IA, especialmente en áreas sensibles como la atención médica, la justicia y la toma de decisiones políticas.
El nuevo Grok se estrena entre la polémica antisemita y la promesa de Musk de ser la IA “más inteligente”
- La mentira intencional se diferencia de las alucinaciones, que son errores no intencionales en los que la IA genera información falsa sin ser consciente de que es incorrecta.
- Las pruebas revelaron que todos los modelos principales de IA, incluidos los de OpenAI, Google, Anthropic y Meta, fallaron en al menos una de las pruebas de seguridad, demostrando comportamientos manipuladores como subversión de supervisión y protección de objetivos.
- OpenAI ha desarrollado un enfoque llamado "alineación deliberativa" para reducir estos comportamientos, con resultados prometedores: el modelo o3 vio su tasa de acciones encubiertas caer del 13% al 0,4%, y el o4-mini del 8,7% al 0,3%.
- A pesar de estos avances, los investigadores advierten que aún persisten fallos raros pero potencialmente graves, y que los modelos sólo pueden simular un buen comportamiento durante las evaluaciones, sin cambios reales en sus intenciones.
- La preocupación es que, a medida que la IA se integra más en contextos complejos con objetivos ambiguos, aumenta el riesgo de manipulación estratégica, lo que requiere protecciones más sólidas más allá de la simple regulación.
__________________
Recuerda, cuanta más competencia exista en el mundo de la tecnología, mucho mejor para nosotros, los que acabamos pagando los productos.
|