Noticias
27/10/23, 14:00:49
De phishing a bombas nucleares: los peligros de la IA según OpenAI
https://static.htcmania.com/2023-09-126-09-01-19-27102023-37101-htcmania.webp
OpenAI, la empresa detrás de tecnologías como ChatGPT, está tomando medidas serias para evaluar y mitigar los "riesgos catastróficos" asociados con el avance de la inteligencia artificial (IA). Han formado un equipo de trabajo denominado 'Preparedness', liderado por expertos en aprendizaje automático del MIT, para sondear los modelos de IA y establecer estrategias de protección. El objetivo es prepararse para amenazas que van más allá de los usos habituales de la IA, abarcando incluso riesgos "químicos, biológicos, radiológicos y nucleares". En el contexto del reciente lanzamiento de GPT-4, la empresa advierte sobre el potencial de la IA para llevar a cabo actividades maliciosas. Desde la generación de correos electrónicos de phishing muy convincentes hasta la posibilidad de emitir instrucciones para crear una bomba, los riesgos son diversos y en aumento. Para hacer frente a estos desafíos, OpenAI no solo confía en su propio equipo. La compañía ha lanzado un concurso abierto para involucrar a la comunidad en la identificación de posibles usos malintencionados de sus modelos, incluidos GPT-4 y DALL-E 3. La intención es desarrollar herramientas de monitoreo y acciones de mitigación de riesgos para prevenir problemas serios en el futuro. Mientras OpenAI y otros expertos en el campo reconocen las enormes ventajas que la IA aporta al desarrollo tecnológico y humano, también enfatizan la necesidad de ser conscientes de los "riesgos cada vez más graves" que plantea.
fuente (https://www.genbeta.com/actualidad/openai-quiere-evaluar-riesgos-catastroficos-ia-como-amenaza-nuclear-pide-tu-colaboracion)
https://static.htcmania.com/2023-09-126-09-01-19-27102023-37101-htcmania.webp
OpenAI, la empresa detrás de tecnologías como ChatGPT, está tomando medidas serias para evaluar y mitigar los "riesgos catastróficos" asociados con el avance de la inteligencia artificial (IA). Han formado un equipo de trabajo denominado 'Preparedness', liderado por expertos en aprendizaje automático del MIT, para sondear los modelos de IA y establecer estrategias de protección. El objetivo es prepararse para amenazas que van más allá de los usos habituales de la IA, abarcando incluso riesgos "químicos, biológicos, radiológicos y nucleares". En el contexto del reciente lanzamiento de GPT-4, la empresa advierte sobre el potencial de la IA para llevar a cabo actividades maliciosas. Desde la generación de correos electrónicos de phishing muy convincentes hasta la posibilidad de emitir instrucciones para crear una bomba, los riesgos son diversos y en aumento. Para hacer frente a estos desafíos, OpenAI no solo confía en su propio equipo. La compañía ha lanzado un concurso abierto para involucrar a la comunidad en la identificación de posibles usos malintencionados de sus modelos, incluidos GPT-4 y DALL-E 3. La intención es desarrollar herramientas de monitoreo y acciones de mitigación de riesgos para prevenir problemas serios en el futuro. Mientras OpenAI y otros expertos en el campo reconocen las enormes ventajas que la IA aporta al desarrollo tecnológico y humano, también enfatizan la necesidad de ser conscientes de los "riesgos cada vez más graves" que plantea.
fuente (https://www.genbeta.com/actualidad/openai-quiere-evaluar-riesgos-catastroficos-ia-como-amenaza-nuclear-pide-tu-colaboracion)