|
Noticias del portal sobre Apple Sólo el staff puede publicar aquí |
|
Herramientas |
#1
|
||||
|
||||
Apple podría empezar a detectar fotografías de abuso infantil en los iPhone
Apple podría empezar a detectar fotografías de abuso infantil en los iPhone Leemos en teknofilo.com "Matthew Green, profesor de criptografía en John Hopkins, ha publicado un tweet en el que afirma que Apple podría introducir pronto una funcionalidad para identificar fotos de abusos a menores en los iPhone de los usuarios. Un hash es una función criptográfica que, mediante un algoritmo matemático, transforma cualquier bloque de datos (por ejemplo, una imagen) en una serie de caracteres con una longitud fija. Este hash es, de alguna, manera una huella dactilar que identifica la imagen. Aparentemente, Apple generará el hash de las imágenes del carrete en el propio iPhone. En lugar de subir tus fotos y compararlas con una base de datos, Apple descargará un conjunto de hashes de fotografías de abuso infantil en tu dispositivo y los comparará con las fotos de tu carrete." fuente: teknofilo.com |
Gracias de parte de: | ||
|
#2
|
||||
|
||||
__________________
|
#4
|
||||
|
||||
No me gusta apple, pero éste tipo de cosas las aplaudo hasta con las orejas y deberían seguir el ejemplo, google y microsoft.
Que los gusanos que caen tan bajo no tengan posibilidades de esconderse. |
#5
|
||||
|
||||
sería muy top, pero el doble rasero de ésto es... privacidad?
|
#6
|
||||
|
||||
Pues si.... Por un lado esto seria una gran herramienta contra esta atrocidad que es abuso a menores pero por otro estarian violando tu privacidad bajo el contesto de buena acción y ya no see trataría de "rumores" como las actuales sospechas y teorias de que nos espian, si no que estarian confirmandolo.
|
#8
|
||||
|
||||
La implementación de eso no funciona así. Hay bases de datos de imágenes y tienen los hash asociados a la imagen. Y la idea de este sistema es que hace hashes de lo que tienes en tu dispositivo, y si no es una de las imágenes de las bbdd conocidas no lo identifica como positivo. Vamos, que en el caso de tu pregunta, no pasaría absolutamente nada
|
Gracias de parte de: | ||
#9
|
||||
|
||||
Ya ha sido anunciado: Apple anuncia medidas para limitar la difusión de material de abuso sexual infantil
__________________
Teknofilo.com
Noticias, rumores y análisis de smartphones, tablets, wearables y otros gadgets Análisis de smartphones | Noticias | Rumores |
Gracias de parte de: | ||
#10
|
||||
|
||||
Van a aprovechar la potencia de sus propios dispositivos para que todo el calculo se haga de manera local, supongo que el asunto a arreglar seria si se detectara algún contenido de potencial abuso infantil y toca decidir si mandarlo a los servidores o no, pero dentro de todo no debería haber alguien revisando foto a foto solo por si es CP o no
|
#11
|
||||
|
||||
No hay motivo para no considerar que detectar si hay abuso sexual es algo positivo...si no se lo ve de esa manera, habria que revisar porque...
|
#12
|
||||
|
||||
Vamos, que en última instancia habrá una persona, con orejas y ojos, revisando ese material que la IA marca como "malo" para confirmar si lo es o no... Que ha idea está bien, no lo niego, pero se carga la privacidad...y por ahí se empieza para terminar analizando cada cosa que vemos o hacemos, siempre con la excusa de la seguridad, honradez y el bien.
|
#13
|
||||
|
||||
Además de intentar buscar imágenes de abusos a menores, podría utilizarse para reprimir el activismo y a los opositores políticos. No se vosotros pero yo lo veo mas para controlar a los activistas politicos, que tienen bastantes y ademas de estar usando de tus recursos movil, bateria para sus historias.
Última edición por Tovar44 Día 06/08/21 a las 11:00:30. |
#14
|
||||
|
||||
totalmente de acuerdo, en mi opinión, estoy un poco cansado que en nombre de una buena causa como es esta, te metan por detrás otras historias, dar acceso (si es que ya no tienen otro backdoor) a las fotos que pueden ser intimas con tu pareja no mola y es que incluso si hubiera un organismo público que lo supervisara tampoco haría gracia, hasta que punto una empresa privada tiene que hacer el trabajo de las autoridades por muy buena causa sea, si quieren hacer un mundo más justo, que estandaricen su puerto de carga, que inviertan en educación sexual a los más pequeños etc
Siempre lo digo, cortarles el "pito" a los putos pedofilos y verías como se les quitarían las ganas. |
#15
|
||||
|
||||
El fin me parece bueno, ahora bien, el fin justifica los medios?
Creo que nos estamos acostumbrando demasiado a que nos cuelen caballos de Troya por todas las vías habidas y por haber con la excusa de buenas obras e intenciones... |
#16
|
||||
|
||||
Bienvenidos al Nuevo Orden Mundial donde las empresas privadas hacen la labor que debería corresponder a la policía y a los jueces..... y la gente aplaudiendo con las orejas
Un saludo
__________________
Aupa Athletic !!!!
A: Did you do a full-wife™? B: Yes, all 3 wives, even CA$H, and then reboob! -always full-wife™ does the trick- |
#17
|
||||
|
||||
Al final, según los propios documentos de Apple, el sistema solo va a generar el hash de la imagen y a comprobarlo contra la bbdd de hashes cuando la imagen se va a guardar en iCloud.
En https://www.apple.com/child-safety/p...al_Summary.pdf se puede leer el siguiente párrafo Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the database of known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines whether there is a match without revealing the result. The device creates a cryptographic safety voucher that encodes the match result. It also encrypts the image’s NeuralHash and a visual derivative. This voucher is uploaded to iCloud Photos along with the image. Es decir, que si alguien tiene desactivada la sincronización de fotos a iCloud, el sistema no hace nada en el dispositivo. En parte, esto lo hacen todos los proveedores Cloud, porque están obligados a informar si tienen alojado en sus servidores cierto tipo de contenidos como ese. Microsoft tiene PhotoDNA https://www.microsoft.com/en-us/photodna y Google tiene su propio sistema para lo mismo https://blog.google/technology/safet...-abuse-online La diferencia es que Apple calcula el hash en el dispositivo antes de guardar la información en iCloud, y los otros proveedores suelen hacerlo en los servidores y no los dispositivos. Y bueno, este tipo de sistemas tienen unos cuantos problemillas... que seguro que precisamente los hijos de p... a los que quieren coger acabarán explotando https://slazebni.cs.illinois.edu/fal...dversarial.pdf Otra cosa son otras de las medidas anunciadas, como las que afectan a iMessage por ejemplo... Edito: y por cierto, por ahora esta funcionalidad solo estará activa en USA. Última edición por Tocote Día 06/08/21 a las 12:31:55. |
#18
|
||||
|
||||
Y sí, es posible que esto ya se esté haciendo pero si encima se normaliza...
__________________
|
#19
|
||||
|
||||
de acuerdo contigo. Por supuesto nada tiene que ver con permitir cosas ilegales pero... se empieza así y se termina revisando otras cosas como cuentas bancarias, documentos o similares.
Y sí, es posible que esto ya se esté haciendo pero si encima se normaliza... Hay que combatir la pornografia infantil pero no asi. |
Gracias de parte de: | ||
|
#20
|
||||
|
||||
No es que se normalice, es que están obligados por ley en USA a hacer eso y a notificar los casos a las autoridades (me refiero cuando la información está en los servidores, no en los dispositivos)
|
Estás aquí | ||||||
|