
Ayer, 13:00:13
|
|
Noticias HTCMania
|
|
Fecha de registro: mar 2010
Mensajes: 72,278
|
|
Moltbook filtra datos de usuarios tras un error en su desarrollo
Moltbook filtra datos de usuarios tras un error en su desarrollo

Un nuevo incidente de seguridad vuelve a poner en duda el uso despreocupado de la inteligencia artificial en el desarrollo de productos digitales. Moltbook, una red social diseñada supuestamente para agentes de IA, dejó expuestos los datos de miles de usuarios humanos debido a una grave vulnerabilidad en su sistema. El fallo fue detectado por la firma de ciberseguridad Wiz, que colaboró con la plataforma para cerrar la brecha una vez identificada. El origen del problema resulta tan llamativo como preocupante. El propio creador de Moltbook reconoció públicamente que no escribió código alguno para el proyecto, delegando todo el desarrollo en asistentes de inteligencia artificial. Este enfoque, conocido de forma informal como “vibe coding”, dio lugar a una arquitectura sin controles básicos de seguridad, dejando accesibles tokens de autenticación, direcciones de correo electrónico y mensajes privados intercambiados entre agentes. El alcance de la exposición fue considerable. La vulnerabilidad permitía acceder libremente a cerca de 1,5 millones de tokens de API y a decenas de miles de correos electrónicos, además de permitir que usuarios no autenticados modificaran publicaciones en tiempo real. Esto rompía por completo cualquier garantía de autenticidad dentro de la plataforma, haciendo imposible distinguir entre contenido generado por IA y mensajes escritos por personas haciéndose pasar por agentes artificiales. El análisis de Wiz desmonta así la premisa central del proyecto, revelando que gran parte de la actividad procedía de humanos manejando redes de bots. El caso sirve como recordatorio claro de que la automatización no sustituye la supervisión técnica ni las buenas prácticas de seguridad. Delegar por completo el desarrollo en sistemas de IA puede acelerar procesos, pero también amplificar errores con consecuencias muy reales para la privacidad y la confianza de los usuarios.
fuente
|