Noticias
29/10/23, 12:00:28
Google se esfuerza por hacer que su IA no sea malvada
https://static.htcmania.com/ia_google-29102023-36-htcmania.webp
El desarrollo ético de la inteligencia artificial (IA) está cobrando cada vez más importancia en la industria tecnológica. Aunque los ordenadores en sí mismos no tienen sesgos ni sentido de la responsabilidad, los desarrolladores sí lo tienen, lo que hace crucial programar la IA de forma ética. Grandes empresas tecnológicas como Google y Microsoft están muy conscientes de esta necesidad. Microsoft ya cuenta con un equipo dedicado a la IA responsable, aunque no han revelado detalles adicionales recientes. Google, por su parte, ha sido más comunicativo sobre el tema. Afirman que la única "carrera" que importa en el ámbito de la IA es la de desarrollarla de manera responsable. Tanto Google como Microsoft consideran fundamental tanto la regulación gubernamental como la interna para evitar la creación de IA dañina. Google, por ejemplo, se niega a desarrollar más su capacidad de reconocimiento facial y emocional debido al potencial perjuicio que podría causar. Lo más impresionante es cómo Google aborda el equilibrio entre la precisión y la ética en la IA, dividiendo cada proyecto en "trozos" y evaluando cada uno de ellos por un equipo de personas reales para realizar ajustes. Sin embargo, la tecnología no es perfecta y aún surgen problemas éticos y sesgos. Lo más relevante es que las empresas son conscientes de los desafíos éticos y trabajan continuamente para mejorar la tecnología de la IA. Aunque el objetivo de una IA perfecta y éticamente responsable es difícil, cada iteración es un paso en la dirección correcta.
fuente (https://www.androidcentral.com/phones/google-works-hard-to-make-sure-ai-isnt-evil)
https://static.htcmania.com/ia_google-29102023-36-htcmania.webp
El desarrollo ético de la inteligencia artificial (IA) está cobrando cada vez más importancia en la industria tecnológica. Aunque los ordenadores en sí mismos no tienen sesgos ni sentido de la responsabilidad, los desarrolladores sí lo tienen, lo que hace crucial programar la IA de forma ética. Grandes empresas tecnológicas como Google y Microsoft están muy conscientes de esta necesidad. Microsoft ya cuenta con un equipo dedicado a la IA responsable, aunque no han revelado detalles adicionales recientes. Google, por su parte, ha sido más comunicativo sobre el tema. Afirman que la única "carrera" que importa en el ámbito de la IA es la de desarrollarla de manera responsable. Tanto Google como Microsoft consideran fundamental tanto la regulación gubernamental como la interna para evitar la creación de IA dañina. Google, por ejemplo, se niega a desarrollar más su capacidad de reconocimiento facial y emocional debido al potencial perjuicio que podría causar. Lo más impresionante es cómo Google aborda el equilibrio entre la precisión y la ética en la IA, dividiendo cada proyecto en "trozos" y evaluando cada uno de ellos por un equipo de personas reales para realizar ajustes. Sin embargo, la tecnología no es perfecta y aún surgen problemas éticos y sesgos. Lo más relevante es que las empresas son conscientes de los desafíos éticos y trabajan continuamente para mejorar la tecnología de la IA. Aunque el objetivo de una IA perfecta y éticamente responsable es difícil, cada iteración es un paso en la dirección correcta.
fuente (https://www.androidcentral.com/phones/google-works-hard-to-make-sure-ai-isnt-evil)