
05/12/23, 12:00:51
|
|
Noticias HTCMania
|
|
Fecha de registro: mar 2010
Mensajes: 60,127
|
|
Repetir palabras en ChatGPT ahora puede violar términos de servicio
Repetir palabras en ChatGPT ahora puede violar términos de servicio

Google DeepMind ha descubierto recientemente que pedir a ChatGPT de OpenAI que repita una palabra indefinidamente puede exponer información privada, como direcciones de correo electrónico, fechas de nacimiento y números telefónicos. Esta técnica sorprendente ha llevado a un cambio en la respuesta de ChatGPT, que ahora advierte que tal comportamiento podría violar las políticas de contenido o términos de servicio de OpenAI. Aunque los términos de servicio de OpenAI no prohíben explícitamente hacer que el chatbot repita palabras de manera reiterada, sí prohíben la extracción de datos de forma "automatizada o programática" de sus servicios. Esto incluye métodos como el scraping, la recolección web o la extracción de datos web. Sin embargo, en pruebas posteriores, la repetición del comando no desencadenó la divulgación de datos por parte de ChatGPT. Este hallazgo plantea importantes cuestiones sobre la privacidad y la seguridad en el uso de inteligencias artificiales como ChatGPT. La respuesta de OpenAI ante estos descubrimientos es crucial para mantener la confianza de los usuarios en su servicio y garantizar que su plataforma sea segura y respetuosa con la privacidad de los datos.
fuente
|