![]() |
|
| Noticias del portal de temática general Sólo el staff puede publicar aquí |
«
Tema Anterior
|
Siguiente tema
»
|
|
Herramientas |
|
#1
|
Microsoft retira su bot de IA después de que éste aprendiera y publicara mensajes racistas
Microsoft retira su bot de IA después de que éste aprendiera y publicara mensajes racistas ![]() Leemos en xataka.com Hace un par de días os presentábamos a Tay, un bot conversacional desarollado por Microsoft que se basaba en un sistema de inteligencia artificial. En concreto, la compañía lo "alimentó" de conversaciones de gente entre 18 y 24 años con el fin de que aprendiera la forma que tienen estos usuarios de comunicarse en la red. Tay comenzó a funcionar en Twitter pero, apenas un par de días después, Microsoft ha decidido "dormirlo" temporalmente. ¿El motivo? Hacer "algunos ajustes" después de que el bot, que "aprende" de sus interacciones con usuarios, se convirtiera en un bot racista que incluso llegó a publicar consignas nazis. ![]() fuente: xataka.com |
|
|
|
#2
|
|
#3
|
Que ca-bron el bot ...
![]() . |
|
#4
|
||||
|
||||
|
Lo trolearon a proposito para que aprendiera a trolear y aprendió. Se convirtio en un bot troll y lo tuvieron que apagar.
|
|
#5
|
||||
|
||||
|
Ha conseguido poner la cara colorada a los de Microsoft jajajaja
|
|
#6
|
||||
|
||||
|
Se alimento con conversaciones de jóvenes entre 18 y 24, asi estan los jóvenes... racistas
|
|
#7
|
||||
|
||||
|
Un experimento social que da para reflexionar durante muuuucho tiempo sobre nuestra sociedad...
|
|
#8
|
||||
|
||||
|
No hombre no. Fueron a hacer la broma con el bot. Le enseñaron a decir cosas chungas a proposito . No es que la gente sea asi.
|
|
#9
|
|
El bot no tiene la culpa de nada, el problema son esas personas entres 18-24 y quien ssbes si menores también, que lástima así estamos la sociedad, esto da vergüenzas como se aprovechan las personas del más débil en fin así está el mundo, cada quién se creé mejor que el otro
|
|
#10
|
||||
|
||||
|
Yo lo veo de otra manera. El bot estaba aprendiendo la verdadera naturaleza del hombre, y eso asusta...
|
| Gracias de parte de: | ||
|
#11
|
||||
|
||||
|
Pues funcionar funciona de lujo, y si fuera español estaría quejándose de que no ponen mhyv por los atentados.
|
| Los siguientes 2 usuarios han agradecido a ShinoConil su comentario: | ||
|
#12
|
||||
|
||||
|
Cita:
Enviado desde mi HUAWEI MT7-L09 mediante Tapatalk |
| Los siguientes 2 usuarios han agradecido a blackhawk_LA su comentario: | ||
|
#13
|
|
Que hagan varios bots de estos para cada cultura, a ver cómo es la gente. Sería un buen experimento social.
O somos trolls y realmente no tenemos maldad sino mala leche, o realmente merecemos más atentados como el de anteayer. |
|
#14
|
||||
|
||||
|
Han sido los usaurios de 4chan para hacer la broma. No tiene que ver con como es la gente.
http://fusion.net/story/284617/8chan...ot-tay-racist Cita:
|
| Gracias de parte de: | ||
|
#15
|
|
Skynet.....
,PD: Yo creo que estaba aprendiendo la verdadera naturaleza de nosotros, por que la doble moral existe y se ve a diario. |
| Gracias de parte de: | ||
|
#18
|
||||
|
||||
|
Han sido los usuarios de 4chan.
Los del foro 4chan hacen muchas acciones de cachondeo, deben ser mas de 10 millones de usuarios. Es una accion de 4chan como otras tantas. Cita:
Última edición por electronvoltio Día 25/03/16 a las 15:01:03 |
| Los siguientes 2 usuarios han agradecido a electronvoltio su comentario: | ||
|
#20
|
||||
|
||||
|
Bueno... ahora le estaran poniendo un nucleo de personalidad. ( SPAAAAAAAAAACEEEE!)
|
| Respuesta |
Estás aquí
|
||||||
|
||||||
«
Tema Anterior
|
Siguiente tema
»
| Herramientas | |
|
|
Hora actual: 22:19:13 (GMT +1)
HTCMania: líderes desde el 2007


Microsoft retira su bot de IA después de que éste aprendiera y publicara mensajes racistas

Hace un par de días os presentábamos a Tay, un bot conversacional desarollado por Microsoft que se basaba en un sistema de inteligencia artificial. En concreto, la compañía lo "alimentó" de conversaciones de gente entre 18 y 24 años con el fin de que aprendiera la forma que tienen estos usuarios de comunicarse en la red. Tay comenzó a funcionar en Twitter pero, apenas un par de días después, Microsoft ha decidido "dormirlo" temporalmente. ¿El motivo? Hacer "algunos ajustes" después de que el bot, que "aprende" de sus interacciones con usuarios, se convirtiera en un bot racista que incluso llegó a publicar consignas nazis. 




,



