Noticias del portal de temática general Sólo el staff puede publicar aquí

Respuesta
 
Herramientas
  #1  
Viejo 05/12/23, 12:00:51
Array

[xs_avatar]
Noticias Noticias está en línea ahora
Noticias HTCMania
 
Fecha de registro: mar 2010
Mensajes: 60,108

noticia Repetir palabras en ChatGPT ahora puede violar términos de servicio

Repetir palabras en ChatGPT ahora puede violar términos de servicio


Google DeepMind ha descubierto recientemente que pedir a ChatGPT de OpenAI que repita una palabra indefinidamente puede exponer información privada, como direcciones de correo electrónico, fechas de nacimiento y números telefónicos. Esta técnica sorprendente ha llevado a un cambio en la respuesta de ChatGPT, que ahora advierte que tal comportamiento podría violar las políticas de contenido o términos de servicio de OpenAI. Aunque los términos de servicio de OpenAI no prohíben explícitamente hacer que el chatbot repita palabras de manera reiterada, sí prohíben la extracción de datos de forma "automatizada o programática" de sus servicios. Esto incluye métodos como el scraping, la recolección web o la extracción de datos web. Sin embargo, en pruebas posteriores, la repetición del comando no desencadenó la divulgación de datos por parte de ChatGPT. Este hallazgo plantea importantes cuestiones sobre la privacidad y la seguridad en el uso de inteligencias artificiales como ChatGPT. La respuesta de OpenAI ante estos descubrimientos es crucial para mantener la confianza de los usuarios en su servicio y garantizar que su plataforma sea segura y respetuosa con la privacidad de los datos.

fuente
Responder Con Cita


Respuesta

Estás aquí
Regresar   Portal | Indice > HTCMania > Discusión general sobre smartphones y tecnología > Noticias del portal de temática general



Hora actual: 09:50:15 (GMT +2)



User Alert System provided by Advanced User Tagging (Lite) - vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.

Contactar por correo / Contact by mail / 邮件联系 /