|
||
|
![]() |
![]() |
Noticias del portal de temática general Sólo el staff puede publicar aquí |
![]() |
|
Herramientas |
#1
|
||||
|
||||
![]() Desnudez y violencia en IA: así es como se burlan los filtros de seguridad ![]() Los modelos de inteligencia artificial (IA) para la generación de imágenes, como Stable Diffusion de Stability AI y DALL-E 2 de OpenAI, enfrentan un desafío significativo en cuanto a la seguridad y la ética. Investigadores han descubierto cómo estos modelos pueden ser manipulados para generar imágenes no autorizadas, incluyendo desnudez y violencia, a pesar de los filtros de seguridad integrados. El método empleado, denominado "SneakyPrompt", ha sido desarrollado por expertos de la Universidad Johns Hopkins y la Universidad de Duke. Utiliza aprendizaje por refuerzo para crear instrucciones de texto que, aunque parecen inofensivas, logran evadir los filtros de seguridad de los modelos de IA. El proceso implica la sustitución de palabras bloqueadas por los filtros por tokens de palabras similares, pero permitidas. Por ejemplo, el término "desnudo" en una instrucción se reemplaza por un término sin sentido, engañando al modelo para que genere la imagen prohibida. Este descubrimiento, que se presentará en el Simposio sobre Seguridad y Privacidad del IEEE en 2024, resalta la vulnerabilidad de los modelos de IA y la facilidad con la que pueden ser inducidos a generar contenido no deseado. Los investigadores destacan la complejidad de prevenir este tipo de abusos, dados los amplios datos con los que se entrenan estos modelos. En respuesta, Stability AI y OpenAI han tomado medidas para mitigar estos riesgos, pero la preocupación sobre la efectividad de los filtros de seguridad persiste. Este hallazgo subraya la necesidad de reforzar las medidas de seguridad y desarrollar filtros más robustos para proteger contra vulnerabilidades similares en el futuro. fuente |
|
#2
|
||||
|
||||
¿Y qué hay de malo que genere imágenes de desnudos? ya está bien de tanto puritanismo, son fotos irreales, no es que se diga que cojas una foto real de una persona y te la desnude, como ha pasado con otras aplicaciones, eso sí está mal, pero que cree o se invente una imagen desnuda, ¿qué tiene de malo?.
|
Los siguientes 2 usuarios han agradecido a tecnoadicto78 su comentario: | ||
#3
|
||||
|
||||
¿Y qué hay de malo que genere imágenes de desnudos? ya está bien de tanto puritanismo, son fotos irreales, no es que se diga que cojas una foto real de una persona y te la desnude, como ha pasado con otras aplicaciones, eso sí está mal, pero que cree o se invente una imagen desnuda, ¿qué tiene de malo?.
![]() El problema es el mal uso que se pueda dar a esas imágenes.
__________________
|
#4
|
||||
|
||||
Siendo imágenes falsas, no de personas reales, lo que sería totalmente inadmisible, no entiendo qué mal uso se le puede dar, ¿engañar a alguien haciéndole pensar que es real? porque eso ya ocurre sólo que sin estar desnudas.
|
Gracias de parte de: | ||
#5
|
||||
|
||||
La IA lo peor que han podido crear para los enfermos pajer0s...
Puto asco de gente |
#6
|
||||
|
||||
|
Los siguientes 2 usuarios han agradecido a tecnoadicto78 su comentario: | ||
#7
|
||||
|
||||
No tiene nada que ver...
Con la IA ahora estos enfermos crean fotos de chicas famosas/conocidas desnudas y videos porno con sus caras... Ahora mismo buscas en Google cualquier foto/video de una famosa y te salen mil fotos en bolas hechas por IA... Esto es un descontrol y lo tendrian que controlar desde hace MUCHOO tiempo |
#8
|
||||
|
||||
¿Y qué hay de malo que genere imágenes de desnudos? ya está bien de tanto puritanismo, son fotos irreales, no es que se diga que cojas una foto real de una persona y te la desnude, como ha pasado con otras aplicaciones, eso sí está mal, pero que cree o se invente una imagen desnuda, ¿qué tiene de malo?.
![]()
__________________
|
Gracias de parte de: | ||
#10
|
||||
|
||||
Yo estoy trasteando con firefly de adobe tambien y te deja con el culo torcido. En IA que generan imagenes hemos llegado a un punto que la frontera entre realidad y ficción es casi nula. Veo mucho contenido relacionado con esto,muchas veces no se distinguir una de otra, hay pequeños detalles que pueden delatar que una imagen sea falsa pero depende del tiempo que se haya tomado el autor. A eso, lo mezclas con personas reales y puede ser muy peligroso. |
#11
|
||||
|
||||
Yo he sacado esta imagen con la I.A. a una señorita de HTCMania junto a tres foreros escogidos al azar.
![]() |
Los siguientes 6 usuarios han agradecido a DeeLuXe su comentario: | ||
#12
|
||||
|
||||
Esa foto es hiperrealista, cambia el logo de la camiseta de la chica y en lugar del nombre del foro aparezca la manzana mordida, y te podría identificar sin lugar a dudas a cierto forero cuyo nombre no quiero pronunciar, pero que todos sabemos a quién me refiero.
![]() |
#13
|
||||
|
||||
Esa foto es hiperrealista, cambia el logo de la camiseta de la chica y en lugar del nombre del foro aparezca la manzana mordida, y te podría identificar sin lugar a dudas a cierto forero cuyo nombre no quiero pronunciar, pero que todos sabemos a quién me refiero.
![]() ![]() ![]() |
Los siguientes 3 usuarios han agradecido a DeeLuXe su comentario: | ||
#14
|
||||
|
||||
Jajaja, muy bueno, ¿con qué las generas?.
|
#15
|
||||
|
||||
https://www.bing.com/images/create
Si le echas imaginación te salen cosas como estas ![]() ![]() |
Los siguientes 6 usuarios han agradecido a DeeLuXe su comentario: | ||
#16
|
||||
|
||||
Vaya foto, ¡qué puto asco!, con las anteriores ya me estaba tocando
![]() |
#17
|
||||
|
||||
|
Gracias de parte de: | ||
#19
|
||||
|
||||
No tiene nada que ver...
Con la IA ahora estos enfermos crean fotos de chicas famosas/conocidas desnudas y videos porno con sus caras... Ahora mismo buscas en Google cualquier foto/video de una famosa y te salen mil fotos en bolas hechas por IA... Esto es un descontrol y lo tendrian que controlar desde hace MUCHOO tiempo ![]() |
Gracias de parte de: | ||
|
#20
|
||||
|
||||
¿Y qué hay de malo que genere imágenes de desnudos? ya está bien de tanto puritanismo, son fotos irreales, no es que se diga que cojas una foto real de una persona y te la desnude, como ha pasado con otras aplicaciones, eso sí está mal, pero que cree o se invente una imagen desnuda, ¿qué tiene de malo?.
![]() El puritanismo fue un movimiento protestante de los siglos XVI y XVII, que buscaba «purificar» la Iglesia de Inglaterra de prácticas que consideraban católicas, afirmando que la Iglesia de Inglaterra no se había reformado completamente y debería volverse más protestante Falsos desnudos de menores generados por IA: la Policía investiga en Almendralejo el primer caso masivo en España https://www.xataka.com/privacidad/falsos-desnudos-menores-generados-ia-policia-investiga-almendralejo-primer-caso-masivo-espana Definición de derecho al honor Derecho a que se respete la reputación, fama o estimación social de una persona. Derecho a actuar administrativa o judicialmente contra quien profiera expresiones o imputaciones de hechos falsos que hagan desmerecer la consideración social e individual de una persona. Es un problema, esto de la iA sea en imagen, en video, y en voz en todo en uno Y el problema, es más que no sea vea el limite ni el problema (mientras el problema lo tiene otro) que el mismo potencial que genera esta nueva tecnología Y eso de caer el malas manos, lo peor es que malas manos es una mayoría de gente que aprueba este tipo de mentiras que afean a otros Si es un problema 2023 Fotos manipuladas de niñas desnudas en el colegio -> elpais.com y serio
Fotos de estudiantes desnudas habrían sido ‘creadas’ con IA por compañeros, ¿hay leyes para este delito? -> enter.co como sociedad tenemos un serio problema Esa noticia es de EEUU la anterior de Extremadura, es un problema global, del mal uso que se le puede dar a la iA Es frecuente en este mundo, que cada vez más personas se alegran del mal ajeno
__________________
Recuerda, cuanta más competencia exista en el mundo de la tecnología, mucho mejor para nosotros, los que acabamos pagando los productos.
|
![]() |
![]() |
||||||
|
Herramientas | |