Noticias
06/06/23, 21:00:52
OpenAI propone medidas preventivas en la segunda parte de su manifiesto de IA
https://static.htcmania.com/2023-06-06-19-03-11-06062023-34758-htcmania.webp
El CEO de OpenAI, Sam Altman, respalda un nuevo manifiesto sobre la Inteligencia Artificial (IA) publicado por el Center for AI Safety. La propuesta consta de tres partes, enfocadas en reducir los riesgos de la IA en la sociedad. En primer lugar, se solicita la creación de un marco de responsabilidad legal por los daños causados por los sistemas de IA. Este marco evitaría que grandes corporaciones eviten la responsabilidad trasladándola a entidades con menos recursos. En segundo lugar, se pide un mayor escrutinio regulatorio en el desarrollo de sistemas de IA, abarcando todo el ciclo de vida del producto. La transparencia y las regulaciones específicas a los datos de entrenamiento podrían combatir el sesgo algorítmico y evitar la explotación no compensada de materiales con derechos de autor. Por último, el documento subraya la importancia de la supervisión humana en los sistemas de IA de alto riesgo para evitar sesgos, la propagación de información falsa y la activación de sistemas potencialmente peligrosos. Altman, al apoyar este manifiesto, parece intentar anticiparse a la regulación e indicar a los legisladores cómo controlar la industria.
fuente (https://www.genbeta.com/actualidad/manifiesto-ia-que-firmo-ceo-openai-tiene-segunda-parte-propone-estas-medidas-para-evitar-danos-presentes-futuros)
https://static.htcmania.com/2023-06-06-19-03-11-06062023-34758-htcmania.webp
El CEO de OpenAI, Sam Altman, respalda un nuevo manifiesto sobre la Inteligencia Artificial (IA) publicado por el Center for AI Safety. La propuesta consta de tres partes, enfocadas en reducir los riesgos de la IA en la sociedad. En primer lugar, se solicita la creación de un marco de responsabilidad legal por los daños causados por los sistemas de IA. Este marco evitaría que grandes corporaciones eviten la responsabilidad trasladándola a entidades con menos recursos. En segundo lugar, se pide un mayor escrutinio regulatorio en el desarrollo de sistemas de IA, abarcando todo el ciclo de vida del producto. La transparencia y las regulaciones específicas a los datos de entrenamiento podrían combatir el sesgo algorítmico y evitar la explotación no compensada de materiales con derechos de autor. Por último, el documento subraya la importancia de la supervisión humana en los sistemas de IA de alto riesgo para evitar sesgos, la propagación de información falsa y la activación de sistemas potencialmente peligrosos. Altman, al apoyar este manifiesto, parece intentar anticiparse a la regulación e indicar a los legisladores cómo controlar la industria.
fuente (https://www.genbeta.com/actualidad/manifiesto-ia-que-firmo-ceo-openai-tiene-segunda-parte-propone-estas-medidas-para-evitar-danos-presentes-futuros)