jorge_kai
17/12/21, 20:35:17
Apple guarda su Plan CSAM en un cajón
https://static.htcmania.com/2021-12-17-20-35-03-17122021-23911-htcmania.webp
Leemos en actualidadiphone.com
"Parece ser que Apple ha decidido detener de momento su plan CSAM de las revisiones que tenía previsto implementar de las fotografías de sus usuarios buscando pornografía infantil. Ya no queda ni rastro del controvertido plan en la web de Apple. No sabemos si de momento es una retirada temporal, buscando la mejor manera de implementar el sistema, o simplemente aborta el proyecto. El caso es que ha desaparecido el plan CSAM de la página de seguridad infantil de la web oficial de Apple. Llevamos ya algunos meses hablando del polémico proyecto que tenía Apple en mente, para aumentar la seguridad del contenido digital de sus dispositivos. Es el denominado Plan CSAM de Apple. Dicho plan quería usar un sistema combinado primero automático y después manual llamado neuralMatch para descubrir imágenes sospechosas de abuso infantil en las bibliotecas de fotos privadas de los usuarios que las guardan en iCloud."
fuente: actualidadiphone.com (https://www.actualidadiphone.com/apple-guarda-su-plan-csam-en-un-cajon/)
https://static.htcmania.com/2021-12-17-20-35-03-17122021-23911-htcmania.webp
Leemos en actualidadiphone.com
"Parece ser que Apple ha decidido detener de momento su plan CSAM de las revisiones que tenía previsto implementar de las fotografías de sus usuarios buscando pornografía infantil. Ya no queda ni rastro del controvertido plan en la web de Apple. No sabemos si de momento es una retirada temporal, buscando la mejor manera de implementar el sistema, o simplemente aborta el proyecto. El caso es que ha desaparecido el plan CSAM de la página de seguridad infantil de la web oficial de Apple. Llevamos ya algunos meses hablando del polémico proyecto que tenía Apple en mente, para aumentar la seguridad del contenido digital de sus dispositivos. Es el denominado Plan CSAM de Apple. Dicho plan quería usar un sistema combinado primero automático y después manual llamado neuralMatch para descubrir imágenes sospechosas de abuso infantil en las bibliotecas de fotos privadas de los usuarios que las guardan en iCloud."
fuente: actualidadiphone.com (https://www.actualidadiphone.com/apple-guarda-su-plan-csam-en-un-cajon/)