Noticias
12/07/23, 21:00:51
OpenAI organiza un equipo de expertos para impedir la aniquilación humana a través de la IA
https://static.htcmania.com/2023-07-12-17-15-49-12072023-35501-htcmania.webp
OpenAI ha constituido un equipo de expertos con el fin de prevenir una posible catástrofe causada por la Inteligencia Artificial (IA) superinteligente. La organización defiende que la IA tiene el potencial de evolucionar a un nivel de inteligencia superior, transformando de manera significativa la tecnología actual y aportando soluciones a problemas mundiales de gran relevancia. No obstante, Ilya Sutskever y Jan Leike, de OpenAI, manifiestan que los humanos no están adecuadamente preparados para controlar una tecnología que supera sus habilidades cognitivas. Reconocen el riesgo que supone una IA superinteligente y admiten que aún no poseen una estrategia para regular o guiar su comportamiento. Los métodos actuales para alinear la IA, como el aprendizaje por refuerzo a través de feedback humano, se basan en la supervisión humana. Pero conforme la IA supera la inteligencia humana, esta supervisión se vuelve insuficiente. Sutskever, cofundador y director científico de OpenAI, y Leike, jefe de alineación de OpenAI, están formando un grupo de investigadores e ingenieros para afrontar los desafíos técnicos de la superinteligencia. Se han dado un plazo de cuatro años para conseguirlo. A pesar de la inquietante posibilidad de extinción humana, los líderes de OpenAI mantienen una actitud optimista. Confían en que, con esfuerzos conjuntos y concentrados, se puede encontrar una solución. OpenAI está buscando activamente a profesionales interesados en prevenir la dominación o erradicación humana por la IA.
fuente (https://www.teknofilo.com/openai-reune-expertos-para-evitar-la-aniquilacion-de-la-humanidad-a-manos-de-la-ia/)
https://static.htcmania.com/2023-07-12-17-15-49-12072023-35501-htcmania.webp
OpenAI ha constituido un equipo de expertos con el fin de prevenir una posible catástrofe causada por la Inteligencia Artificial (IA) superinteligente. La organización defiende que la IA tiene el potencial de evolucionar a un nivel de inteligencia superior, transformando de manera significativa la tecnología actual y aportando soluciones a problemas mundiales de gran relevancia. No obstante, Ilya Sutskever y Jan Leike, de OpenAI, manifiestan que los humanos no están adecuadamente preparados para controlar una tecnología que supera sus habilidades cognitivas. Reconocen el riesgo que supone una IA superinteligente y admiten que aún no poseen una estrategia para regular o guiar su comportamiento. Los métodos actuales para alinear la IA, como el aprendizaje por refuerzo a través de feedback humano, se basan en la supervisión humana. Pero conforme la IA supera la inteligencia humana, esta supervisión se vuelve insuficiente. Sutskever, cofundador y director científico de OpenAI, y Leike, jefe de alineación de OpenAI, están formando un grupo de investigadores e ingenieros para afrontar los desafíos técnicos de la superinteligencia. Se han dado un plazo de cuatro años para conseguirlo. A pesar de la inquietante posibilidad de extinción humana, los líderes de OpenAI mantienen una actitud optimista. Confían en que, con esfuerzos conjuntos y concentrados, se puede encontrar una solución. OpenAI está buscando activamente a profesionales interesados en prevenir la dominación o erradicación humana por la IA.
fuente (https://www.teknofilo.com/openai-reune-expertos-para-evitar-la-aniquilacion-de-la-humanidad-a-manos-de-la-ia/)