|
||
|
|
|
|||||||
| Noticias del portal sobre Apple Sólo el staff puede publicar aquí |
![]() |
|
|
Herramientas |
|
#1
|
||||
|
||||
Apple guarda su Plan CSAM en un cajón
Apple guarda su Plan CSAM en un cajón ![]() Leemos en actualidadiphone.com "Parece ser que Apple ha decidido detener de momento su plan CSAM de las revisiones que tenía previsto implementar de las fotografías de sus usuarios buscando pornografía infantil. Ya no queda ni rastro del controvertido plan en la web de Apple. No sabemos si de momento es una retirada temporal, buscando la mejor manera de implementar el sistema, o simplemente aborta el proyecto. El caso es que ha desaparecido el plan CSAM de la página de seguridad infantil de la web oficial de Apple. Llevamos ya algunos meses hablando del polémico proyecto que tenía Apple en mente, para aumentar la seguridad del contenido digital de sus dispositivos. Es el denominado Plan CSAM de Apple. Dicho plan quería usar un sistema combinado primero automático y después manual llamado neuralMatch para descubrir imágenes sospechosas de abuso infantil en las bibliotecas de fotos privadas de los usuarios que las guardan en iCloud." fuente: actualidadiphone.com |
|
|
|
#2
|
||||
|
||||
|
__________________
|
|
#3
|
||||
|
||||
|
Pero siempre han tenido un plan para mandar todos los datos al Tío SAM
|
![]() |
Estás aquí
|
||||||
|
||||||