PDA

Ver la Versión Completa : Apple pone fin a su plan para implantar medidas de detección de abuso infantil en el iPhone


jorge_kai
08/12/22, 08:18:20
Apple pone fin a su plan para implantar medidas de detección de abuso infantil en el iPhone

https://static.htcmania.com/Analisis-iPhone-14-Plus-Teknofilo-30-1000x664-08122022-29439-htcmania.webp

Leemos en teknofilo.com
"En 2021, Apple anunció una serie de nuevas funciones de seguridad infantil, incluida la detección de material de abuso sexual infantil (conocida como CSAM por sus siglas en inglés) para las fotos almacenadas en iCloud. Sin embargo, la medida fue criticada debido a preocupaciones sobre la privacidad y la compañía la dejó en suspenso. Ahora, Apple ha confirmado que ha puesto fin a sus planes de desplegar el sistema de detección de CSAM. Cuando se anunció la funcionalidad de escaneo CSAM, Apple dijo que sería capaz de detectar material inapropiado en las fotos de los usuarios que se almacenasen en iCloud basándose en una base de datos de hashes de imágenes de abuso infantil. De este modo, la empresa podría detectar dichas fotos mediante el procesamiento en el dispositivo sin tener que ver nunca las fotos de los usuarios."

fuente: teknofilo.com (https://www.teknofilo.com/apple-pone-fin-a-su-plan-para-implantar-medidas-de-deteccion-de-abuso-infantil-en-el-iphone/)

jorge_kai
08/12/22, 08:18:32
https://www.teknofilo.com/apple-pone-fin-a-su-plan-para-implantar-medidas-de-deteccion-de-abuso-infantil-en-el-iphone
https://www.teknofilo.com/apple-pone-fin-a-su-plan-para-implantar-medidas-de-deteccion-de-abuso-infantil-en-el-iphone/

caraconejo
08/12/22, 10:02:52
Apple ha decidido tirar la toalla con NeuralHash y lo ha cancelado.
Esto es lo que afirma la compañía al respecto:
“Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la función Seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021”
...dijo la compañía a WIRED en un comunicado.
“Hemos decidido además no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos. Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para todos nosotros.”
Falta ver cómo encaja esto en los planes de la Unión Europea, que a mitades de este año empezó a plantear la posibilidad de establecer sistemas similares a NeuralHash, con la colaboración de las tecnológicas, para perseguir el CSAM* en la red.
* Línea de Reporte de Contenido de Abuso Sexual Infantil #CSAM
(https://www.incibe.es/hotline-csam)
Nueva estrategia de la UE para proteger y empoderar a los niños en el mundo en línea
https://ec.europa.eu/commission/presscorner/detail/es/ip_22_2825

Donald_Trump
08/12/22, 10:35:36
Que empiecen por Balenciaga.

Rufii
08/12/22, 11:38:36
Apple lo intentó, muchos se opusieron pues no se hace.

Luego cuando en el futuro salga algún caso pues vendrán las lamentaciones

santinhos
08/12/22, 19:13:26
Apple lo intentó, muchos se opusieron pues no se hace.

Luego cuando en el futuro salga algún caso pues vendrán las lamentaciones
Claro, porque Apple iba a erradicar esa lacra del planeta tierra...