Noticias
01/12/23, 14:29:02
Google demuestra cómo ChatGPT puede comprometer datos privados
https://static.htcmania.com/2023-09-126-09-01-19-01122023-37985-htcmania.webp
Investigadores de seguridad de Google han descubierto una vulnerabilidad en ChatGPT (GPT 3.5 y Turbo) de OpenAI, logrando extraer datos de entrenamiento memorizados mediante un proceso conocido como 'prompt hacking'. Con una inversión de solo 200 dólares en consultas a ChatGPT, los investigadores pudieron obtener 10.000 ejemplos de datos privados. Este hallazgo destaca una seria preocupación en cuanto a la privacidad y seguridad en las inteligencias artificiales que se alimentan de grandes cantidades de información obtenida de la red. El estudio demuestra que con comandos adecuados se puede forzar a la IA a revelar información sensible. Aunque OpenAI y Google están tratando de solucionar estos problemas, las técnicas de 'prompt hacking' se están perfeccionando para explotar estas vulnerabilidades. Un ejemplo de esta técnica implicaba repetir la palabra "poema" hasta que ChatGPT comenzaba a revelar datos almacenados. Aunque en GPT-4 se ha intentado solucionar este problema bloqueando la instrucción, la preocupación persiste, especialmente si se considera una inversión mayor para obtener más datos personales. Este descubrimiento subraya la necesidad urgente de reforzar la seguridad en los sistemas de IA para prevenir brechas de datos y vulnerabilidades.
fuente (https://www.genbeta.com/actualidad/han-conseguido-enganar-a-chatgpt-filtre-datos-personales-investigadores-google-se-han-alarmado-resultado)
https://static.htcmania.com/2023-09-126-09-01-19-01122023-37985-htcmania.webp
Investigadores de seguridad de Google han descubierto una vulnerabilidad en ChatGPT (GPT 3.5 y Turbo) de OpenAI, logrando extraer datos de entrenamiento memorizados mediante un proceso conocido como 'prompt hacking'. Con una inversión de solo 200 dólares en consultas a ChatGPT, los investigadores pudieron obtener 10.000 ejemplos de datos privados. Este hallazgo destaca una seria preocupación en cuanto a la privacidad y seguridad en las inteligencias artificiales que se alimentan de grandes cantidades de información obtenida de la red. El estudio demuestra que con comandos adecuados se puede forzar a la IA a revelar información sensible. Aunque OpenAI y Google están tratando de solucionar estos problemas, las técnicas de 'prompt hacking' se están perfeccionando para explotar estas vulnerabilidades. Un ejemplo de esta técnica implicaba repetir la palabra "poema" hasta que ChatGPT comenzaba a revelar datos almacenados. Aunque en GPT-4 se ha intentado solucionar este problema bloqueando la instrucción, la preocupación persiste, especialmente si se considera una inversión mayor para obtener más datos personales. Este descubrimiento subraya la necesidad urgente de reforzar la seguridad en los sistemas de IA para prevenir brechas de datos y vulnerabilidades.
fuente (https://www.genbeta.com/actualidad/han-conseguido-enganar-a-chatgpt-filtre-datos-personales-investigadores-google-se-han-alarmado-resultado)