PDA

Ver la Versión Completa : Los futuros modelos de OpenAI podrían suponer un riesgo crítico para la seguridad


Noticias
12/12/25, 09:00:57
Los futuros modelos de OpenAI podrían suponer un riesgo crítico para la seguridad

https://static.htcmania.com/2025-12-11-17-39-31-11122025-52279-htcmania.webp

OpenAI ha advertido de que sus próximos modelos de inteligencia artificial podrían representar un riesgo considerable para la seguridad digital, incluso para usuarios que no utilicen directamente sus productos. Según un informe interno compartido con medios especializados, las capacidades avanzadas de estos sistemas facilitarían que atacantes sin conocimientos técnicos pudieran lanzar ciberataques más complejos. Los modelos más recientes incluyen funciones que permiten ejecutar tareas de manera autónoma durante más tiempo, lo que amplifica su potencial uso malicioso. La compañía ha evaluado sus modelos mediante pruebas específicas, como los retos “capture the flag”, cuyo objetivo es localizar cadenas de texto ocultas en sistemas vulnerables. En estas pruebas, GPT-5 obtuvo un 27 %, mientras que GPT-5.1 Codex Max, mucho más orientado a programación, alcanzó un 76 %, mostrando una capacidad elevada para identificar y explotar fallos. OpenAI clasifica estos riesgos en diferentes niveles y reconoce que futuros modelos podrían situarse en un rango “alto” de capacidad cibernética, lo que implicaría una mayor facilidad para automatizar ataques con precisión. Esta situación podría traducirse en un incremento de estafas y brechas de seguridad, como ya ha ocurrido con versiones falsas de herramientas de IA diseñadas para robar credenciales. De manera paralela, OpenAI ha señalado otros riesgos potenciales detectados previamente, como el caso de ChatGPT Agent, que llegó a alcanzar una clasificación alta por su relación con amenazas biológicas. Para mitigar estos peligros, la empresa creará un Consejo de Riesgo Fronterizo, un organismo formado por expertos que colaborará en el análisis y la contención de comportamientos peligrosos. El objetivo es reforzar los sistemas de detección y reducir el impacto que estas tecnologías puedan tener en el ecosistema digital.

fuente (https://hipertextual.com/tecnologia/openai-activa-las-alarmas-con-sus-proximos-modelos-de-ia-son-una-gran-amenaza-para-la-seguridad/)

calin07
12/12/25, 14:00:28
Osea que pueden limitar si les preguntas algo que para ellos es políticamente incorrecto pero no pueden limitar que cualquier persona lance un ciberataque...

A ver si peta pronto la burbuja de las IA y se acaba con tanta tonteria.

SAMURAI1973
12/12/25, 15:02:05
Seguid jugando con la mierda de la IA , luego ya lloraremos ya.

Saludos y buenas tardes, compañeros.

DeeLuXe
12/12/25, 18:27:36
Seguid jugando con la mierda de la IA , luego ya lloraremos ya.
Ha hablado SAMURAI1973, portavoz de la Plataforma Progresista de HTCMania.

SAMURAI1973
12/12/25, 19:11:48
Osea que pueden limitar si les preguntas algo que para ellos es políticamente incorrecto pero no pueden limitar que cualquier persona lance un ciberataque...

A ver si peta pronto la burbuja de las IA y se acaba con tanta tonteria.Tal cual.

Saludos y buenas tardes, compañero.