PDA

Ver la Versión Completa : Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera


jorge_kai
07/08/21, 11:32:35
Apple: El sistema para identificar fotos de abusos a menores no crea una puerta trasera

https://static.htcmania.com/iPhone-1-1000x563(1)-07082021-21364-htcmania.jpg

Leemos en teknofilo.com
"Apple ha respondido a las preocupaciones sobre sus próximas medidas para limitar la difusión de material de abuso infantil. La compañía asegura que su herramienta para localizar imágenes de abuso infantil en el dispositivo de un usuario no crea una puerta trasera ni reduce la privacidad. La compañía reiteró que no escanea toda la biblioteca de fotos del propietario de un dispositivo para buscar imágenes abusivas, sino que utiliza criptografía para comparar las imágenes con una base de datos conocida proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados. Algunos defensores de la privacidad se mostraron preocupados tras el anuncio de Apple de que la empresa escanearía toda la colección de fotos de un usuario. Sin embargo, la empresa está utilizando un algoritmo en el propio dispositivo, no en sus servidores, para detectar las imágenes sexualmente explícitas."

fuente: teknofilo.com (https://www.teknofilo.com/apple-el-sistema-para-identificar-fotos-de-abusos-a-menores-no-crea-una-puerta-trasera/)

jorge_kai
07/08/21, 11:32:45
https://www.teknofilo.com/apple-el-sistema-para-identificar-fotos-de-abusos-a-menores-no-crea-una-puerta-trasera/

https://www.teknofilo.com/apple-el-sistema-para-identificar-fotos-de-abusos-a-menores-no-crea-una-puerta-trasera/

Bok3Ron
07/08/21, 17:01:26
si se tiene que hacer una noticia con ese titulo es todo lo contrario .... si todas las marcas tienen una puerta trasera (menos huawei que no quiso y por eso la vetaron tambien)y esa puerta trasera es para el gobierno de los EE.UU

Juanro49
08/08/21, 19:24:08
1. Si están tan seguros de ello, que publiquen el código de ese algoritmo, mientras tanto, viendo el historial mentiroso de todas las grandes empresas y teniendo en cuenta que son unos expertos en marketing, dudo de todo lo que no sea de código abierto y mas aun de estas grandes empresas mentirosas que lo único que les interesa es tener el mayor numero de datos de usuarios para crear sus perfiles publicitarios bien definidos, alimentar su IA o revenderlos a dataBrokers.

2. A Mercadona le multaron con 2,5 millones la AEPD por hacer exactamente eso, comparar imagenes que destruian en décimas de segundos con las que tienen en una base de datos en busca de coincidencias

Tocote
09/08/21, 22:31:50
2. A Mercadona le multaron con 2,5 millones la AEPD por hacer exactamente eso, comparar imagenes que destruian en décimas de segundos con las que tienen en una base de datos en busca de coincidencias

El problema es que con lo que están haciendo (sea como hasta ahora en servidor, o en el dispositivo) están cumpliendo una ley de USA que obliga a eso si no quieren ser culpables de un delito federal ( https://www.law.cornell.edu/uscode/text/18/2258A ), mientras lo que hizo Mercadona aquí incumplía la ley.

Otra cosa es que lo hayan decidido hacer desde el dispositivo en vez de en sus servidores como hasta ahora... pero bueno tiene ventajas para ellos, como el ahorro por el menor uso de recursos haciendo que sean los dispositivos los que hagan todo el trabajo y no sus servidores, y que incluso pueden dentro de unos meses decir que van a permitir en iCloud Photos el cifrado E2E porque con este mecanismo pueden meter cifrado E2E en las fotos y a la vez cumplir los requisitos de la ley federal esa...
Obviamente, si se amplia el sistema para usarlo con otros contenidos, o si los gobiernos de turno pueden controlar e introducir sus propios hashes en el sistema, pues...

Es más, mientras está todo el mundo entretenido mirando algo que saca Apple por ahora en USA cumpliendo la legislación allí, resulta que en Europa está pasando lo siguiente https://www.patrick-breyer.de/en/posts/message-screening/ y luego será culpa de las compañías que lo implementen y no de los que lo están legislando...

Juanro49
10/08/21, 09:37:23
El problema es que con lo que están haciendo (sea como hasta ahora en servidor, o en el dispositivo) están cumpliendo una ley de USA que obliga a eso si no quieren ser culpables de un delito federal ( https://www.law.cornell.edu/uscode/text/18/2258A ), mientras lo que hizo Mercadona aquí incumplía la ley.

Otra cosa es que lo hayan decidido hacer desde el dispositivo en vez de en sus servidores como hasta ahora... pero bueno tiene ventajas para ellos, como el ahorro por el menor uso de recursos haciendo que sean los dispositivos los que hagan todo el trabajo y no sus servidores, y que incluso pueden dentro de unos meses decir que van a permitir en iCloud Photos el cifrado E2E porque con este mecanismo pueden meter cifrado E2E en las fotos y a la vez cumplir los requisitos de la ley federal esa...
Obviamente, si se amplia el sistema para usarlo con otros contenidos, o si los gobiernos de turno pueden controlar e introducir sus propios hashes en el sistema, pues...

Es más, mientras está todo el mundo entretenido mirando algo que saca Apple por ahora en USA cumpliendo la legislación allí, resulta que en Europa está pasando lo siguiente https://www.patrick-breyer.de/en/posts/message-screening/ y luego será culpa de las compañías que lo implementen y no de los que lo están legislando...


Pues es muy sencillo, si no lo hacen, en USA incumplen una ley, y si lo hacen, en Europa incumplen otra ley, a mi lo que me importa es la ley europea, la de usa me da igual porque no soy estadounidense, que son los que se tienen que preocupar de tener esas basuras de leyes.

Yo lo tengo claro, que le den a estas basuras de empresas que yo paso de usar sus servicios.

Lo del chat control en la UE es una aberración, por esa razón no voy a tardar mucho en dar largas a whatsapp, telegram y demas y usar solo xmpp o matrix

Tocote
10/08/21, 09:46:25
Pues es muy sencillo, si no lo hacen, en USA incumplen una ley, y si lo hacen, en Europa incumplen otra ley, a mi lo que me importa es la ley europea, la de usa me da igual porque no soy estadounidense, que son los que se tienen que preocupar de tener esas basuras de leyes.


Estoy de acuerdo con eso... Y por eso, por ahora sólo entrará en funcionamiento (veremos si al final entra en funcionamiento) en USA esta funcionalidad, y ya han dicho que tendrán que mirar de forma específica las leyes de cada país antes de ver si lo echan a andar en otros lugares, y va por ahí... por los problemas legales que les pueda generar el sistema en cada país.

Juanro49
10/08/21, 11:13:59
Estoy de acuerdo con eso... Y por eso, por ahora sólo entrará en funcionamiento (veremos si al final entra en funcionamiento) en USA esta funcionalidad, y ya han dicho que tendrán que mirar de forma específica las leyes de cada país antes de ver si lo echan a andar en otros lugares, y va por ahí... por los problemas legales que les pueda generar el sistema en cada país.

Si, aunque es posible que en Europa también se le permita la implantación tras la ley de chat control (que se aceptó con la misma escusa)... (De hecho, puede resultar conspiranoico, pero ya es casualidad que Apple saque esto justo tras esa ley no? De hecho ahora dicen que apps de terceros podrían implementar su sistema xD)

Tocote
10/08/21, 12:09:19
Si, aunque es posible que en Europa también se le permita la implantación tras la ley de chat control (que se aceptó con la misma escusa)... (De hecho, puede resultar conspiranoico, pero ya es casualidad que Apple saque esto justo tras esa ley no? De hecho ahora dicen que apps de terceros podrían implementar su sistema xD)

La verdad es que entiendo que si lees simplemente las noticias una tras de otra es para ser conspiranoico, porque esta semana también sucedió esto

https://www.zdnet.com/article/canberra-asks-big-tech-to-introduce-detection-capabilities-in-encrypted-communication/

La realidad es que tanto la UE como Australia llevaban ya unos años dando por el saco pidiendo este tipo de cosas... Obviamente el timing digamos que no es el más adecuado para pensar bien viendo lo visto :)

Tocote
14/08/21, 12:21:51
Han publicado un documento donde explican el Security Threat Model de lo que van a implementar (y ya parece que hay modificaciones sobre lo que se decía inicialmente).

https://www.apple.com/child-safety/pdf/Security_Threat_Model_Review_of_Apple_Child_Safety _Features.pdf

Entre las modificaciones está que la bbdd de hashes ya no va a ser la que provea una única organización sino que va a ser la intersección de los hashes que les pasen múltiples organizaciones de jurisdicciones distintas. Además dicen lo siguiente

"Apple will publish a Knowledge Base article containing a root hash of the encrypted CSAM hash database included with each version of every Apple operating system that supports the feature. Additionally, users will be able to inspect the root hash of the en- crypted database present on their device, and compare it to the expected root hash in the Knowledge Base article. That the calculation of the root hash shown to the user in Settings is accurate is subject to code inspection by security researchers like all other iOS device-side security claims."

Tocote
18/08/21, 21:57:59
Ya han hecho ingeniería inversa algoritmo de Neuralhash e incluso han encontrado colisiones en el hash generado para 2 imágenes diferentes

https://apple.slashdot.org/story/21/08/18/1755223/apples-neuralhash-algorithm-has-been-reverse-engineered