Noticias
24/10/23, 17:00:00
Así es como Nightshade hace inútiles para la IA las imágenes de los artistas
https://static.htcmania.com/2023-09-126-09-01-19-24102023-37057-htcmania.webp
El software "Nightshade", desarrollado por investigadores de la Universidad de Chicago, tiene el potencial de cambiar las reglas del juego en el ámbito de la inteligencia artificial (IA) y los derechos de autor. Esta herramienta open-source "envenena" las imágenes de manera que ya no pueden ser utilizadas para entrenar modelos de lenguaje de IA. Lo hace alterando los píxeles de una forma indetectable para el ojo humano, pero que confunde a la IA durante su proceso de aprendizaje. Nightshade se incorporará en Glaze, otra herramienta que ya evitaba que las imágenes sirvieran para entrenamiento. La diferencia es que Nightshade va un paso más allá: no solo impide que la imagen sea entrenada, sino que hace que la IA aprenda información errónea. Por ejemplo, si se aplica a una imagen de un perro, la IA podría identificarlo como un gato. El impacto de Nightshade es significativo. Los modelos de lenguaje suelen ser entrenados con grandes cantidades de imágenes, muchas de ellas creadas por artistas y protegidas por derechos de autor. Hasta ahora, esto ha generado un debate ético sobre el uso indebido de la IA, que se ha beneficiado del trabajo artístico sin dar crédito. Nightshade tiene el potencial de equilibrar esta balanza. Sin embargo, también se presenta un riesgo: cualquier modelo de lenguaje entrenado con imágenes "envenenadas" necesitaría ser reentrenado. Los desarrolladores esperan que esta herramienta promueva un respeto mayor hacia los derechos de autor y la propiedad intelectual de los artistas.
fuente (https://www.genbeta.com/actualidad/este-software-envenena-imagenes-creadas-artistas-no-sirvan-para-entrenar-a-ia-asi-funciona-nightshade)
https://static.htcmania.com/2023-09-126-09-01-19-24102023-37057-htcmania.webp
El software "Nightshade", desarrollado por investigadores de la Universidad de Chicago, tiene el potencial de cambiar las reglas del juego en el ámbito de la inteligencia artificial (IA) y los derechos de autor. Esta herramienta open-source "envenena" las imágenes de manera que ya no pueden ser utilizadas para entrenar modelos de lenguaje de IA. Lo hace alterando los píxeles de una forma indetectable para el ojo humano, pero que confunde a la IA durante su proceso de aprendizaje. Nightshade se incorporará en Glaze, otra herramienta que ya evitaba que las imágenes sirvieran para entrenamiento. La diferencia es que Nightshade va un paso más allá: no solo impide que la imagen sea entrenada, sino que hace que la IA aprenda información errónea. Por ejemplo, si se aplica a una imagen de un perro, la IA podría identificarlo como un gato. El impacto de Nightshade es significativo. Los modelos de lenguaje suelen ser entrenados con grandes cantidades de imágenes, muchas de ellas creadas por artistas y protegidas por derechos de autor. Hasta ahora, esto ha generado un debate ético sobre el uso indebido de la IA, que se ha beneficiado del trabajo artístico sin dar crédito. Nightshade tiene el potencial de equilibrar esta balanza. Sin embargo, también se presenta un riesgo: cualquier modelo de lenguaje entrenado con imágenes "envenenadas" necesitaría ser reentrenado. Los desarrolladores esperan que esta herramienta promueva un respeto mayor hacia los derechos de autor y la propiedad intelectual de los artistas.
fuente (https://www.genbeta.com/actualidad/este-software-envenena-imagenes-creadas-artistas-no-sirvan-para-entrenar-a-ia-asi-funciona-nightshade)