|
||
|
|
|
|||||||
| Noticias del portal sobre Apple Sólo el staff puede publicar aquí |
![]() |
|
|
Herramientas |
|
#1
|
||||
|
||||
Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera
Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera ![]() Leemos en teknofilo.com "Apple ha respondido a las preocupaciones sobre sus próximas medidas para limitar la difusión de material de abuso infantil. La compañía asegura que su herramienta para localizar imágenes de abuso infantil en el dispositivo de un usuario no crea una puerta trasera ni reduce la privacidad. La compañía reiteró que no escanea toda la biblioteca de fotos del propietario de un dispositivo para buscar imágenes abusivas, sino que utiliza criptografía para comparar las imágenes con una base de datos conocida proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados. Algunos defensores de la privacidad se mostraron preocupados tras el anuncio de Apple de que la empresa escanearía toda la colección de fotos de un usuario. Sin embargo, la empresa está utilizando un algoritmo en el propio dispositivo, no en sus servidores, para detectar las imágenes sexualmente explícitas." fuente: teknofilo.com |
|
|
|
#2
|
||||
|
||||
|
__________________
|
|
#3
|
||||
|
||||
|
si se tiene que hacer una noticia con ese titulo es todo lo contrario .... si todas las marcas tienen una puerta trasera (menos huawei que no quiso y por eso la vetaron tambien)y esa puerta trasera es para el gobierno de los EE.UU
|
|
#4
|
||||
|
||||
|
1. Si están tan seguros de ello, que publiquen el código de ese algoritmo, mientras tanto, viendo el historial mentiroso de todas las grandes empresas y teniendo en cuenta que son unos expertos en marketing, dudo de todo lo que no sea de código abierto y mas aun de estas grandes empresas mentirosas que lo único que les interesa es tener el mayor numero de datos de usuarios para crear sus perfiles publicitarios bien definidos, alimentar su IA o revenderlos a dataBrokers.
2. A Mercadona le multaron con 2,5 millones la AEPD por hacer exactamente eso, comparar imagenes que destruian en décimas de segundos con las que tienen en una base de datos en busca de coincidencias
__________________
|
| Gracias de parte de: | ||
|
#5
|
||||
|
||||
|
Otra cosa es que lo hayan decidido hacer desde el dispositivo en vez de en sus servidores como hasta ahora... pero bueno tiene ventajas para ellos, como el ahorro por el menor uso de recursos haciendo que sean los dispositivos los que hagan todo el trabajo y no sus servidores, y que incluso pueden dentro de unos meses decir que van a permitir en iCloud Photos el cifrado E2E porque con este mecanismo pueden meter cifrado E2E en las fotos y a la vez cumplir los requisitos de la ley federal esa... Obviamente, si se amplia el sistema para usarlo con otros contenidos, o si los gobiernos de turno pueden controlar e introducir sus propios hashes en el sistema, pues... Es más, mientras está todo el mundo entretenido mirando algo que saca Apple por ahora en USA cumpliendo la legislación allí, resulta que en Europa está pasando lo siguiente https://www.patrick-breyer.de/en/pos...age-screening y luego será culpa de las compañías que lo implementen y no de los que lo están legislando... |
|
#6
|
||||
|
||||
|
El problema es que con lo que están haciendo (sea como hasta ahora en servidor, o en el dispositivo) están cumpliendo una ley de USA que obliga a eso si no quieren ser culpables de un delito federal ( https://www.law.cornell.edu/uscode/text/18/2258A ), mientras lo que hizo Mercadona aquí incumplía la ley.
Otra cosa es que lo hayan decidido hacer desde el dispositivo en vez de en sus servidores como hasta ahora... pero bueno tiene ventajas para ellos, como el ahorro por el menor uso de recursos haciendo que sean los dispositivos los que hagan todo el trabajo y no sus servidores, y que incluso pueden dentro de unos meses decir que van a permitir en iCloud Photos el cifrado E2E porque con este mecanismo pueden meter cifrado E2E en las fotos y a la vez cumplir los requisitos de la ley federal esa... Obviamente, si se amplia el sistema para usarlo con otros contenidos, o si los gobiernos de turno pueden controlar e introducir sus propios hashes en el sistema, pues... Es más, mientras está todo el mundo entretenido mirando algo que saca Apple por ahora en USA cumpliendo la legislación allí, resulta que en Europa está pasando lo siguiente https://www.patrick-breyer.de/en/pos...age-screening y luego será culpa de las compañías que lo implementen y no de los que lo están legislando... ![]() Pues es muy sencillo, si no lo hacen, en USA incumplen una ley, y si lo hacen, en Europa incumplen otra ley, a mi lo que me importa es la ley europea, la de usa me da igual porque no soy estadounidense, que son los que se tienen que preocupar de tener esas basuras de leyes. Yo lo tengo claro, que le den a estas basuras de empresas que yo paso de usar sus servicios. Lo del chat control en la UE es una aberración, por esa razón no voy a tardar mucho en dar largas a whatsapp, telegram y demas y usar solo xmpp o matrix
__________________
|
| Gracias de parte de: | ||
|
#7
|
||||
|
||||
|
Pues es muy sencillo, si no lo hacen, en USA incumplen una ley, y si lo hacen, en Europa incumplen otra ley, a mi lo que me importa es la ley europea, la de usa me da igual porque no soy estadounidense, que son los que se tienen que preocupar de tener esas basuras de leyes.
![]() |
| Gracias de parte de: | ||
|
#8
|
||||
|
||||
|
Estoy de acuerdo con eso... Y por eso, por ahora sólo entrará en funcionamiento (veremos si al final entra en funcionamiento) en USA esta funcionalidad, y ya han dicho que tendrán que mirar de forma específica las leyes de cada país antes de ver si lo echan a andar en otros lugares, y va por ahí... por los problemas legales que les pueda generar el sistema en cada país.
![]() )
__________________
|
| Gracias de parte de: | ||
|
#9
|
||||
|
||||
|
Si, aunque es posible que en Europa también se le permita la implantación tras la ley de chat control (que se aceptó con la misma escusa)... (De hecho, puede resultar conspiranoico, pero ya es casualidad que Apple saque esto justo tras esa ley no? De hecho ahora dicen que apps de terceros podrían implementar su sistema
)![]() https://www.zdnet.com/article/canber...communication La realidad es que tanto la UE como Australia llevaban ya unos años dando por el saco pidiendo este tipo de cosas... Obviamente el timing digamos que no es el más adecuado para pensar bien viendo lo visto
|
| Gracias de parte de: | ||
|
#10
|
||||
|
||||
|
Han publicado un documento donde explican el Security Threat Model de lo que van a implementar (y ya parece que hay modificaciones sobre lo que se decía inicialmente).
https://www.apple.com/child-safety/p...y_Features.pdf Entre las modificaciones está que la bbdd de hashes ya no va a ser la que provea una única organización sino que va a ser la intersección de los hashes que les pasen múltiples organizaciones de jurisdicciones distintas. Además dicen lo siguiente "Apple will publish a Knowledge Base article containing a root hash of the encrypted CSAM hash database included with each version of every Apple operating system that supports the feature. Additionally, users will be able to inspect the root hash of the en- crypted database present on their device, and compare it to the expected root hash in the Knowledge Base article. That the calculation of the root hash shown to the user in Settings is accurate is subject to code inspection by security researchers like all other iOS device-side security claims." |
|
#11
|
||||
|
||||
|
Ya han hecho ingeniería inversa algoritmo de Neuralhash e incluso han encontrado colisiones en el hash generado para 2 imágenes diferentes
https://apple.slashdot.org/story/21/...rse-engineered |
![]() |
Estás aquí
|
||||||
|
||||||