Noticias
07/02/24, 21:00:43
OpenAI introduce marca de agua para identificar imágenes generadas por IA. No parece que vaya a servir de mucho
https://static.htcmania.com/2023-09-121323216-09-01-19-07022024-39308-htcmania.webp
OpenAI ha desarrollado una marca de agua para identificar imágenes creadas por inteligencia artificial (IA), en respuesta a la creciente preocupación por el uso indebido de estas tecnologías, como se evidenció en el caso de las imágenes pornográficas falsas de Taylor Swift. Esta marca, integrada en las imágenes generadas por DALL-E 3, consta de dos partes: una visible, representada por el símbolo "CR" (Content Credentials) en la esquina superior izquierda, y otra invisible en los metadatos. Esto facilitará a los usuarios verificar el origen de las imágenes a través de plataformas como Content Credentials Verify. Aunque este sistema, surgido del consorcio C2PA (involucrando a empresas como Adobe y Microsoft), no afecta la calidad o latencia de las imágenes, se reconoce que no es perfecto. Los metadatos pueden ser eliminados, tanto accidental como intencionadamente, y muchas redes sociales los eliminan al subir contenidos, lo que limita su efectividad. A pesar de ello, representa un avance importante en el control de los deepfakes y el uso responsable de la IA en la generación de imágenes.
fuente (https://www.xataka.com/robotica-e-ia/id-acostumbrandoos-a-ver-cr-imagenes-generadas-ia-potencial-solucion-a-problemon)
https://static.htcmania.com/2023-09-121323216-09-01-19-07022024-39308-htcmania.webp
OpenAI ha desarrollado una marca de agua para identificar imágenes creadas por inteligencia artificial (IA), en respuesta a la creciente preocupación por el uso indebido de estas tecnologías, como se evidenció en el caso de las imágenes pornográficas falsas de Taylor Swift. Esta marca, integrada en las imágenes generadas por DALL-E 3, consta de dos partes: una visible, representada por el símbolo "CR" (Content Credentials) en la esquina superior izquierda, y otra invisible en los metadatos. Esto facilitará a los usuarios verificar el origen de las imágenes a través de plataformas como Content Credentials Verify. Aunque este sistema, surgido del consorcio C2PA (involucrando a empresas como Adobe y Microsoft), no afecta la calidad o latencia de las imágenes, se reconoce que no es perfecto. Los metadatos pueden ser eliminados, tanto accidental como intencionadamente, y muchas redes sociales los eliminan al subir contenidos, lo que limita su efectividad. A pesar de ello, representa un avance importante en el control de los deepfakes y el uso responsable de la IA en la generación de imágenes.
fuente (https://www.xataka.com/robotica-e-ia/id-acostumbrandoos-a-ver-cr-imagenes-generadas-ia-potencial-solucion-a-problemon)