PDA

Ver la Versión Completa : Apple podría empezar a detectar fotografías de abuso infantil en los iPhone


jorge_kai
05/08/21, 17:43:22
Apple podría empezar a detectar fotografías de abuso infantil en los iPhone

https://static.htcmania.com/iPhone-arrancando-1000x519-05082021-21332-htcmania.jpg

Leemos en teknofilo.com
"Matthew Green, profesor de criptografía en John Hopkins, ha publicado un tweet en el que afirma que Apple podría introducir pronto una funcionalidad para identificar fotos de abusos a menores en los iPhone de los usuarios. Un hash es una función criptográfica que, mediante un algoritmo matemático, transforma cualquier bloque de datos (por ejemplo, una imagen) en una serie de caracteres con una longitud fija. Este hash es, de alguna, manera una huella dactilar que identifica la imagen. Aparentemente, Apple generará el hash de las imágenes del carrete en el propio iPhone. En lugar de subir tus fotos y compararlas con una base de datos, Apple descargará un conjunto de hashes de fotografías de abuso infantil en tu dispositivo y los comparará con las fotos de tu carrete."

fuente: teknofilo.com (https://www.teknofilo.com/apple-podria-empezar-a-detectar-fotografias-de-abuso-infantil-en-los-iphone/)

jorge_kai
05/08/21, 17:43:44
https://www.teknofilo.com/apple-podria-empezar-a-detectar-fotografias-de-abuso-infantil-en-los-iphone/

https://www.teknofilo.com/apple-podria-empezar-a-detectar-fotografias-de-abuso-infantil-en-los-iphone/

acadio
05/08/21, 17:44:58
mmmmm vaya un tema controvertido

pochitor
05/08/21, 18:11:18
No me gusta apple, pero éste tipo de cosas las aplaudo hasta con las orejas y deberían seguir el ejemplo, google y microsoft.
Que los gusanos que caen tan bajo no tengan posibilidades de esconderse.

spree
05/08/21, 20:08:05
sería muy top, pero el doble rasero de ésto es... privacidad?

vilit
05/08/21, 20:12:04
mmmmm vaya un tema controvertido

Pues si.... Por un lado esto seria una gran herramienta contra esta atrocidad que es abuso a menores pero por otro estarian violando tu privacidad bajo el contesto de buena acción y ya no see trataría de "rumores" como las actuales sospechas y teorias de que nos espian, si no que estarian confirmandolo.

smonkie
05/08/21, 21:01:16
Y si soy un padre o una madre que ha hecho fotos a sus hijos desnudos de manera completamente inocente?


Cada vez un pasito más cerca del futuro distópico que nunca creímos que llegaría.

Tocote
05/08/21, 21:30:20
Y si soy un padre o una madre que ha hecho fotos a sus hijos desnudos de manera completamente inocente?


Cada vez un pasito más cerca del futuro distópico que nunca creímos que llegaría.

La implementación de eso no funciona así. Hay bases de datos de imágenes y tienen los hash asociados a la imagen. Y la idea de este sistema es que hace hashes de lo que tienes en tu dispositivo, y si no es una de las imágenes de las bbdd conocidas no lo identifica como positivo. Vamos, que en el caso de tu pregunta, no pasaría absolutamente nada

Teknofilo
05/08/21, 22:13:46
Ya ha sido anunciado: Apple anuncia medidas para limitar la difusión de material de abuso sexual infantil (https://www.teknofilo.com/apple-anuncia-medidas-para-limitar-la-difusion-de-material-de-abuso-sexual-infantil/)

Unbreak330
06/08/21, 04:38:52
sería muy top, pero el doble rasero de ésto es... privacidad?

Van a aprovechar la potencia de sus propios dispositivos para que todo el calculo se haga de manera local, supongo que el asunto a arreglar seria si se detectara algún contenido de potencial abuso infantil y toca decidir si mandarlo a los servidores o no, pero dentro de todo no debería haber alguien revisando foto a foto solo por si es CP o no

nicogarcia1229
06/08/21, 06:27:03
No hay motivo para no considerar que detectar si hay abuso sexual es algo positivo...si no se lo ve de esa manera, habria que revisar porque...

jcontanaya
06/08/21, 08:27:08
Vamos, que en última instancia habrá una persona, con orejas y ojos, revisando ese material que la IA marca como "malo" para confirmar si lo es o no... Que ha idea está bien, no lo niego, pero se carga la privacidad...y por ahí se empieza para terminar analizando cada cosa que vemos o hacemos, siempre con la excusa de la seguridad, honradez y el bien.

Tovar44
06/08/21, 08:28:28
Además de intentar buscar imágenes de abusos a menores, podría utilizarse para reprimir el activismo y a los opositores políticos. No se vosotros pero yo lo veo mas para controlar a los activistas politicos, que tienen bastantes y ademas de estar usando de tus recursos movil, bateria para sus historias.

JoinMA
06/08/21, 09:08:33
mmmmm vaya un tema controvertido

totalmente de acuerdo, en mi opinión, estoy un poco cansado que en nombre de una buena causa como es esta, te metan por detrás otras historias, dar acceso (si es que ya no tienen otro backdoor) a las fotos que pueden ser intimas con tu pareja no mola y es que incluso si hubiera un organismo público que lo supervisara tampoco haría gracia, hasta que punto una empresa privada tiene que hacer el trabajo de las autoridades por muy buena causa sea, si quieren hacer un mundo más justo, que estandaricen su puerto de carga, que inviertan en educación sexual a los más pequeños etc

Siempre lo digo, cortarles el "pito" a los putos pedofilos y verías como se les quitarían las ganas.

tursey
06/08/21, 10:58:20
El fin me parece bueno, ahora bien, el fin justifica los medios?

Creo que nos estamos acostumbrando demasiado a que nos cuelen caballos de Troya por todas las vías habidas y por haber con la excusa de buenas obras e intenciones...

rihval
06/08/21, 11:24:04
Bienvenidos al Nuevo Orden Mundial donde las empresas privadas hacen la labor que debería corresponder a la policía y a los jueces..... y la gente aplaudiendo con las orejas :facepalm:

Un saludo

Tocote
06/08/21, 12:22:47
Al final, según los propios documentos de Apple, el sistema solo va a generar el hash de la imagen y a comprobarlo contra la bbdd de hashes cuando la imagen se va a guardar en iCloud.

En https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf se puede leer el siguiente párrafo

Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the database of known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines whether there is a match without revealing the result. The device creates a cryptographic safety voucher that encodes the match result. It also encrypts the image’s NeuralHash and a visual derivative. This voucher is uploaded to iCloud Photos along with the image.

Es decir, que si alguien tiene desactivada la sincronización de fotos a iCloud, el sistema no hace nada en el dispositivo.

En parte, esto lo hacen todos los proveedores Cloud, porque están obligados a informar si tienen alojado en sus servidores cierto tipo de contenidos como ese. Microsoft tiene PhotoDNA https://www.microsoft.com/en-us/photodna y Google tiene su propio sistema para lo mismo https://blog.google/technology/safety-security/our-efforts-fight-child-sexual-abuse-online/

La diferencia es que Apple calcula el hash en el dispositivo antes de guardar la información en iCloud, y los otros proveedores suelen hacerlo en los servidores y no los dispositivos.

Y bueno, este tipo de sistemas tienen unos cuantos problemillas... que seguro que precisamente los hijos de p... a los que quieren coger acabarán explotando https://slazebni.cs.illinois.edu/fall18/lec12_adversarial.pdf

Otra cosa son otras de las medidas anunciadas, como las que afectan a iMessage por ejemplo...

Edito: y por cierto, por ahora esta funcionalidad solo estará activa en USA.

jorge_kai
06/08/21, 12:27:29
El fin me parece bueno, ahora bien, el fin justifica los medios?

Creo que nos estamos acostumbrando demasiado a que nos cuelen caballos de Troya por todas las vías habidas y por haber con la excusa de buenas obras e intenciones...

de acuerdo contigo. Por supuesto nada tiene que ver con permitir cosas ilegales pero... se empieza así y se termina revisando otras cosas como cuentas bancarias, documentos o similares.

Y sí, es posible que esto ya se esté haciendo pero si encima se normaliza...

korny
06/08/21, 18:13:43
de acuerdo contigo. Por supuesto nada tiene que ver con permitir cosas ilegales pero... se empieza así y se termina revisando otras cosas como cuentas bancarias, documentos o similares.

Y sí, es posible que esto ya se esté haciendo pero si encima se normaliza...

Es que el siguiente paso puede ser que se empiece a escanear tus fotos para ver si son fotos con copyright o que escanee el telefono para ver si tienes musica pirateada.

Hay que combatir la pornografia infantil pero no asi.

Tocote
07/08/21, 11:31:08
Y sí, es posible que esto ya se esté haciendo pero si encima se normaliza...

No es que se normalice, es que están obligados por ley en USA a hacer eso y a notificar los casos a las autoridades (me refiero cuando la información está en los servidores, no en los dispositivos)