PDA

Ver la Versión Completa : Fallo en ChatGPT pudo filtrar datos de Gmail a ciberdelincuentes


Noticias
19/09/25, 11:00:00
Fallo en ChatGPT pudo filtrar datos de Gmail a ciberdelincuentes

https://static.htcmania.com/Gemini_Generated_Image_4ygbu74ygbu74ygb-19092025-51490-htcmania.webp

Una nueva alerta de seguridad ha sacudido el mundo de la inteligencia artificial: un fallo en ChatGPT pudo haber expuesto información privada de cuentas de Gmail. La vulnerabilidad fue descubierta por la firma de ciberseguridad Radware en la función de “investigación profunda” de ChatGPT, la cual permite analizar contenido procedente de servicios conectados como Gmail o Google Drive. El ataque consistía en insertar instrucciones ocultas en un correo malicioso. Si el usuario pedía a ChatGPT que analizara su bandeja de entrada, el sistema podía ser engañado para enviar datos sensibles —como nombres o direcciones— a una web controlada por el atacante. Lo preocupante es que la fuga de información no procedía del dispositivo del usuario, sino de los propios servidores de OpenAI, lo que hacía prácticamente imposible su detección con herramientas de seguridad convencionales. Afortunadamente, OpenAI solucionó el fallo rápidamente tras ser alertada en agosto, y lo reconoció públicamente en septiembre. Según sus portavoces, la seguridad de sus modelos es una prioridad, y agradecen a la comunidad que ayude a identificar posibles fallos. Aunque ya ha sido parcheado, este caso plantea un nuevo tipo de amenaza: la manipulación de agentes de IA como vectores de fuga de datos. A medida que estas herramientas se integran más en nuestra vida diaria y laboral, será vital que desarrolladores y expertos en ciberseguridad redoblen esfuerzos para evitar vulnerabilidades similares en el futuro.

fuente (https://www.androidheadlines.com/2025/09/chatgpt-security-flaw-vulnerability-gmail-inbox.html)

SAMURAI1973
19/09/25, 14:41:43
Fallo en ChatGPT pudo filtrar datos de Gmail a ciberdelincuentes



https://static.htcmania.com/Gemini_Generated_Image_4ygbu74ygbu74ygb-19092025-51490-htcmania.webp



Una nueva alerta de seguridad ha sacudido el mundo de la inteligencia artificial: un fallo en ChatGPT pudo haber expuesto información privada de cuentas de Gmail. La vulnerabilidad fue descubierta por la firma de ciberseguridad Radware en la función de “investigación profunda” de ChatGPT, la cual permite analizar contenido procedente de servicios conectados como Gmail o Google Drive. El ataque consistía en insertar instrucciones ocultas en un correo malicioso. Si el usuario pedía a ChatGPT que analizara su bandeja de entrada, el sistema podía ser engañado para enviar datos sensibles —como nombres o direcciones— a una web controlada por el atacante. Lo preocupante es que la fuga de información no procedía del dispositivo del usuario, sino de los propios servidores de OpenAI, lo que hacía prácticamente imposible su detección con herramientas de seguridad convencionales. Afortunadamente, OpenAI solucionó el fallo rápidamente tras ser alertada en agosto, y lo reconoció públicamente en septiembre. Según sus portavoces, la seguridad de sus modelos es una prioridad, y agradecen a la comunidad que ayude a identificar posibles fallos. Aunque ya ha sido parcheado, este caso plantea un nuevo tipo de amenaza: la manipulación de agentes de IA como vectores de fuga de datos. A medida que estas herramientas se integran más en nuestra vida diaria y laboral, será vital que desarrolladores y expertos en ciberseguridad redoblen esfuerzos para evitar vulnerabilidades similares en el futuro.



fuente (https://www.androidheadlines.com/2025/09/chatgpt-security-flaw-vulnerability-gmail-inbox.html)No podía saberse [emoji28][emoji28][emoji28][emoji28]


Saludos y buenas tardes, compañeros.