PDA

Ver la Versión Completa : Fallo de seguridad en ChatGPT expone datos personales de usuarios


Noticias
24/03/23, 22:45:37
Fallo de seguridad en ChatGPT expone datos personales de usuarios

https://static.htcmania.com/2023-03-24-19-51-23-24032023-32992-htcmania.webp


El popular ChatGPT, la inteligencia artificial desarrollada por OpenAI, se vio envuelta en una grave polémica relacionada con la filtración de datos personales de sus usuarios. El pasado martes, OpenAI cerró temporalmente el servicio debido a un error que permitía a usuarios visualizar el historial de uso de otros. La investigación reveló que, durante unas horas, se podían ver datos privados de usuarios registrados, incluyendo información susceptible de ser utilizada para suplantar identidades o realizar pagos fraudulentos con tarjetas de crédito. Los datos expuestos incluían nombre, apellidos, correo electrónico, últimos cuatro dígitos de la tarjeta de crédito, fecha de caducidad de la tarjeta y dirección de pago. El problema afectó a aquellos usuarios que pagaron por ChatGPT Plus. El origen del fallo fue un 'bug' en el código fuente de la librería redis-py utilizada por la página web de ChatGPT. Se identificaron dos posibles formas de obtener datos privados: ChatGPT envió correos de confirmación con información personal a usuarios incorrectos y se mostró información incorrecta al acceder a la sección de gestión de suscripción en la configuración. OpenAI ya ha contactado a los usuarios afectados y ha tomado medidas para evitar que esta situación se repita.

fuente (https://www.elespanol.com/elandroidelibre/noticias-y-novedades/20230324/chatgpt-filtro-datos-usuarios-correos-tarjetas-credito/750925280_0.html)

MiguelSerrano
25/03/23, 08:01:19
Vaya, por sorpresa de todos.

dioxido
25/03/23, 09:09:13
Espero que el siguiente fallo no sea que Skynet tome consciencia xD xD

InspireD
26/03/23, 00:35:59
Eso de pedir el número de teléfono me echó para atrás.

JeTzu
26/03/23, 10:44:45
Espero que el siguiente fallo no sea que Skynet tome consciencia xD xD

Vaya, te me has adelantado...