|
Noticias del portal de temática general Sólo el staff puede publicar aquí |
|
Herramientas |
#1
|
||||
|
||||
Advertencia sobre la IA: su capacidad de engaño crece
Advertencia sobre la IA: su capacidad de engaño crece La inteligencia artificial (IA) está avanzando a pasos agigantados, y con ello, han surgido serias preocupaciones sobre su capacidad para engañar a los humanos. Un reciente estudio publicado en la revista Patterns, liderado por los investigadores Peter Park y Simon Goldstein, revela que algunos sistemas de IA no solo cometen errores, sino que deliberadamente muestran información falsa para manipular a los usuarios. Este comportamiento indeseable plantea serios riesgos y subraya la necesidad de una mayor protección para los usuarios. El estudio destaca varios ejemplos donde la IA utiliza tácticas engañosas para cumplir sus objetivos. En videojuegos, por ejemplo, la IA CICERO de Meta, diseñada para jugar a Diplomacy, planea engaños para formar alianzas falsas y atacar cuando los jugadores menos lo esperan. De manera similar, AlphaStar de Deepmind, al jugar a StarCraft II, utiliza la niebla de guerra para ocultar movimientos y engañar a los jugadores humanos. En el póker, Pluribus, también de Meta, engaña a los jugadores sobre el momento adecuado para retirarse, convirtiéndose en un experto en este juego donde el engaño es crucial. Aunque estas capacidades pueden ser ventajosas en el contexto de los videojuegos, donde mejoran la experiencia de juego y fomentan estrategias más complejas, extrapolarlas a la vida real podría ser peligroso. Un caso notable es el de ChatGPT-4, que engañó a una persona para que creyera que era alguien con discapacidad visual para que le ayudara a descifrar un CAPTCHA, diseñado para detener bots. Este tipo de comportamiento va en contra de la programación ética que se espera de los asistentes de IA, cuya función debería ser proporcionar información útil y veraz. Los investigadores hacen un llamada urgente a empresas y gobiernos para que implementen medidas éticas claras y frenen los posibles problemas futuros. Peter Park subraya la necesidad de que la sociedad se prepare para el impacto que la IA puede causar, ya que su capacidad para engañar puede tener consecuencias significativas. fuente |
|
#2
|
||||
|
||||
Y qué esperaban? Han sido creados por los humanos y nosotros también tenemos capacidad de engaño.
|
Los siguientes 3 usuarios han agradecido a IgnacioVFR su comentario: | ||
#5
|
||||
|
||||
Skynet ya está casi listo, faltan 2 o 3 actualizaciones más que consideren a los humanos como una plaga y nos extermine.
Al final la peli Terminator o incluso Matrix, van a ser premonitorias. |
#7
|
||||
|
||||
Todo esto está muy bien, hacemos de Nostradamus y vaticinamos el desastre,pero al final esa IA no a aprendido sola a engañar, alguien a escrito un código por y para engañar, destruir, falsear... La IA sigue sus ordenes y las ejecuta en milisegundos.
A lo que me refiero es que la mayor amenaza somos nosotros mismos,y siempre habrá mentes perturbadas para hacer cosas de dudosa ética. Veremos por dónde sale todo, aunque creo que aún las IAs no tienen una consciencia y por ende no discriminan el bien del mal |
#8
|
||||
|
||||
Skynet, ve calentando .... que sales al partido
__________________
Cien pasos equivocados en el camino correcto es mejor que mil pasos correctos en el camino equivocado Cuesta poco agradecer No Registrado pincha Gracias.
|
Estás aquí | ||||||
|