![]() |
|
| Noticias del portal sobre Apple Sólo el staff puede publicar aquí |
«
Tema Anterior
|
Siguiente tema
»
|
|
Herramientas |
|
#1
|
Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera
Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera ![]() Leemos en teknofilo.com "Apple ha respondido a las preocupaciones sobre sus próximas medidas para limitar la difusión de material de abuso infantil. La compañía asegura que su herramienta para localizar imágenes de abuso infantil en el dispositivo de un usuario no crea una puerta trasera ni reduce la privacidad. La compañía reiteró que no escanea toda la biblioteca de fotos del propietario de un dispositivo para buscar imágenes abusivas, sino que utiliza criptografía para comparar las imágenes con una base de datos conocida proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados. Algunos defensores de la privacidad se mostraron preocupados tras el anuncio de Apple de que la empresa escanearía toda la colección de fotos de un usuario. Sin embargo, la empresa está utilizando un algoritmo en el propio dispositivo, no en sus servidores, para detectar las imágenes sexualmente explícitas." fuente: teknofilo.com |
|
|
|
#2
|
|
#3
|
|
si se tiene que hacer una noticia con ese titulo es todo lo contrario .... si todas las marcas tienen una puerta trasera (menos huawei que no quiso y por eso la vetaron tambien)y esa puerta trasera es para el gobierno de los EE.UU
|
|
#4
|
|
1. Si están tan seguros de ello, que publiquen el código de ese algoritmo, mientras tanto, viendo el historial mentiroso de todas las grandes empresas y teniendo en cuenta que son unos expertos en marketing, dudo de todo lo que no sea de código abierto y mas aun de estas grandes empresas mentirosas que lo único que les interesa es tener el mayor numero de datos de usuarios para crear sus perfiles publicitarios bien definidos, alimentar su IA o revenderlos a dataBrokers.
2. A Mercadona le multaron con 2,5 millones la AEPD por hacer exactamente eso, comparar imagenes que destruian en décimas de segundos con las que tienen en una base de datos en busca de coincidencias |
| Gracias de parte de: | ||
|
#5
|
||||
|
||||
|
Cita:
Otra cosa es que lo hayan decidido hacer desde el dispositivo en vez de en sus servidores como hasta ahora... pero bueno tiene ventajas para ellos, como el ahorro por el menor uso de recursos haciendo que sean los dispositivos los que hagan todo el trabajo y no sus servidores, y que incluso pueden dentro de unos meses decir que van a permitir en iCloud Photos el cifrado E2E porque con este mecanismo pueden meter cifrado E2E en las fotos y a la vez cumplir los requisitos de la ley federal esa... Obviamente, si se amplia el sistema para usarlo con otros contenidos, o si los gobiernos de turno pueden controlar e introducir sus propios hashes en el sistema, pues... Es más, mientras está todo el mundo entretenido mirando algo que saca Apple por ahora en USA cumpliendo la legislación allí, resulta que en Europa está pasando lo siguiente https://www.patrick-breyer.de/en/pos...age-screening y luego será culpa de las compañías que lo implementen y no de los que lo están legislando... |
|
#6
|
|
|
Cita:
Pues es muy sencillo, si no lo hacen, en USA incumplen una ley, y si lo hacen, en Europa incumplen otra ley, a mi lo que me importa es la ley europea, la de usa me da igual porque no soy estadounidense, que son los que se tienen que preocupar de tener esas basuras de leyes. Yo lo tengo claro, que le den a estas basuras de empresas que yo paso de usar sus servicios. Lo del chat control en la UE es una aberración, por esa razón no voy a tardar mucho en dar largas a whatsapp, telegram y demas y usar solo xmpp o matrix |
| Gracias de parte de: | ||
|
#7
|
||||
|
||||
|
Cita:
|
| Gracias de parte de: | ||
|
#8
|
|
|
Cita:
)
|
| Gracias de parte de: | ||
|
#9
|
||||
|
||||
|
Cita:
https://www.zdnet.com/article/canber...communication La realidad es que tanto la UE como Australia llevaban ya unos años dando por el saco pidiendo este tipo de cosas... Obviamente el timing digamos que no es el más adecuado para pensar bien viendo lo visto
|
| Gracias de parte de: | ||
|
#10
|
||||
|
||||
|
Han publicado un documento donde explican el Security Threat Model de lo que van a implementar (y ya parece que hay modificaciones sobre lo que se decía inicialmente).
https://www.apple.com/child-safety/p...y_Features.pdf Entre las modificaciones está que la bbdd de hashes ya no va a ser la que provea una única organización sino que va a ser la intersección de los hashes que les pasen múltiples organizaciones de jurisdicciones distintas. Además dicen lo siguiente "Apple will publish a Knowledge Base article containing a root hash of the encrypted CSAM hash database included with each version of every Apple operating system that supports the feature. Additionally, users will be able to inspect the root hash of the en- crypted database present on their device, and compare it to the expected root hash in the Knowledge Base article. That the calculation of the root hash shown to the user in Settings is accurate is subject to code inspection by security researchers like all other iOS device-side security claims." |
|
#11
|
||||
|
||||
|
Ya han hecho ingeniería inversa algoritmo de Neuralhash e incluso han encontrado colisiones en el hash generado para 2 imágenes diferentes
https://apple.slashdot.org/story/21/...rse-engineered |
| Respuesta |
Estás aquí
|
||||||
|
||||||
«
Tema Anterior
|
Siguiente tema
»
| Herramientas | |
|
|
Hora actual: 02:15:13 (GMT +1)
HTCMania: líderes desde el 2007


Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera
-07082021-21364-htcmania.jpg)


)



