PDA

Ver la Versión Completa : Se acusa a Apple de incumplir la detección de CSAM en iCloud


Noticias
09/12/24, 07:00:59
Se acusa a Apple de incumplir la detección de CSAM en iCloud

https://static.htcmania.com/2023-09-126-09-01-19-08122024-45843-htcmania.webp

A pesar de haber anunciado tiempo atrás el desarrollo de una herramienta para detectar CSAM (material de abuso sexual infantil) en iCloud, Apple se enfrenta ahora a una demanda colectiva presentada por víctimas de abusos contra menores. Estas personas sostienen que la empresa no llevó a cabo la implementación de dicho sistema para frenar la difusión de material de abuso sexual infantil, dando como resultado la perpetuación del daño causado. La cifra solicitada supera los 1.200 millones de dólares, representando a miles de afectados que esperaban una intervención más firme y efectiva. La idea original consistía en crear un mecanismo que identificase imágenes prohibidas en el entorno virtual, con el objetivo de notificar su existencia a entidades especializadas y así interrumpir su circulación. Sin embargo, la iniciativa se vio truncada ante las críticas que cuestionaban su impacto en la privacidad del usuario, llevando a la compañía a abandonar el proyecto sin concretar soluciones alternativas para impedir la presencia de ese contenido.
Mientras las víctimas señalan que la inacción prolonga su sufrimiento, la marca asegura que el combate contra estas prácticas deplorables sigue siendo una prioridad. La compañía insiste en estar explorando métodos para luchar contra estos delitos sin comprometer la seguridad y la confidencialidad de quienes utilizan sus servicios. Ante este dilema, se abre un escenario donde los perjudicados esperan una respuesta contundente, y la firma busca equilibrar sus responsabilidades éticas con el reto de preservar la confianza del público. El desenlace del litigio podría marcar un precedente en torno a las obligaciones que empresas tecnológicas asumen frente a este tipo de delitos.

fuente (https://www.engadget.com/big-tech/apple-sued-for-failing-to-implement-tools-that-would-detect-csam-in-icloud-202940984.html?src=rss)

manucabal
09/12/24, 09:19:21
Bravo por Apple, siempre pensando en sus infantes :aplausos:

Rufii
09/12/24, 10:05:25
Estas personas sostienen que la empresa no llevó a cabo la implementación de dicho sistema para frenar la difusión de material de abuso sexual infantil

Que le den gracias a la UE :(

vmm2
09/12/24, 12:16:39
Es que sea para lo que sea, no se puede privar de la privacidad a la gente sin que lo diga un juez.
Entiendo que en este caso es una cosa muy heavy, pero es que si no lo dice un juez, nadie deberia poder ver lo que haces.

No lo digo por este foro, pero en twitter hay gente quejandose de que se ha prohibido esto, a ver... es que seria una burrada que sin la orden de un juez alguien pueda entrar en lo que haces en tu movil, ni estoy a favor de los terroristas, pedofilos, o cualquier burrada, pero es que eso es un juez el que tiene que decir si se tiene que ver algo de un movil o no... ni apple ni la policia ni ninguna otra institucion te deberia poder ver lo que haces.

Es como si para evitar violaciones ponemos camaras en todos los baños de las discotecas (justo me ha venido a la cabeza el caso de dani alves y por eso he puesto ese ejemplo. Estoy seguro de que nadie esta a favor de las violaciones, pero eso no implica que para prevenirlas se pueda hacer este tipo de cosas)


Lo que está pasando es que como la union europea ha puesto las cosas dificiles a las grandes tecnologicas para que no se queden con los datos de todo el mundo y defender la privacidad de la gente, ha cogido una tecnologica y ha dicho "¿que puedo hacer para poner a la gente de mi parte y que me dejen recopilar datos de todo el mundo en europa? pues ya se, voy a poner el caso de la pedofilia para ponerme a la gente de mi lado, y una vez esté vulnerada la privacidad de la gente, ya puedo seguir con otras cosas".

Estas personas sostienen que la empresa no llevó a cabo la implementación de dicho sistema para frenar la difusión de material de abuso sexual infantil

Que le den gracias a la UE :(

Gracias union europea por preservar la privacidad de la gente.

La seguridad no justifica la falta de privacidad. No tiene que ir apple ni nadie mas a hacer de jueces, si hay sospecha de que alguien tiene pornografia infantil en el movil, tendrá que ser un juez el que diga lo que hay que hacer.

Insisto, gracias Union Europea por defender la separacion de poderes (no es a la policia ni a apple la que le corresponde hacer nada ahi sin que lo diga un juez) y defender la privacidad de la gente, y en caso de que se descubra a un infractor (en este caso pedofilo) perseguirle.

dioxido
09/12/24, 12:36:46
El abuso infantil va a seguir existiendo ya que en este mundo va a seguir existiendo gente "enferma" por así llamarlos, ya que de por mi fuese, serían personas capadas y no de forma química ...
Pero meterse en la privacidad de todo mortal con la excusa de protegernos de ellos, pienso que no es la solución ... Ni todo quien tenga un móvil es un presunto "depredador" ni todo el que tiene un cuchillo en la mano es un asesino.

apriliars3
10/12/24, 06:50:16
Es que sea para lo que sea, no se puede privar de la privacidad a la gente sin que lo diga un juez.
Entiendo que en este caso es una cosa muy heavy, pero es que si no lo dice un juez, nadie deberia poder ver lo que haces.

No lo digo por este foro, pero en twitter hay gente quejandose de que se ha prohibido esto, a ver... es que seria una burrada que sin la orden de un juez alguien pueda entrar en lo que haces en tu movil, ni estoy a favor de los terroristas, pedofilos, o cualquier burrada, pero es que eso es un juez el que tiene que decir si se tiene que ver algo de un movil o no... ni apple ni la policia ni ninguna otra institucion te deberia poder ver lo que haces.

Es como si para evitar violaciones ponemos camaras en todos los baños de las discotecas (justo me ha venido a la cabeza el caso de dani alves y por eso he puesto ese ejemplo. Estoy seguro de que nadie esta a favor de las violaciones, pero eso no implica que para prevenirlas se pueda hacer este tipo de cosas)


Lo que está pasando es que como la union europea ha puesto las cosas dificiles a las grandes tecnologicas para que no se queden con los datos de todo el mundo y defender la privacidad de la gente, ha cogido una tecnologica y ha dicho "¿que puedo hacer para poner a la gente de mi parte y que me dejen recopilar datos de todo el mundo en europa? pues ya se, voy a poner el caso de la pedofilia para ponerme a la gente de mi lado, y una vez esté vulnerada la privacidad de la gente, ya puedo seguir con otras cosas".



Gracias union europea por preservar la privacidad de la gente.

La seguridad no justifica la falta de privacidad. No tiene que ir apple ni nadie mas a hacer de jueces, si hay sospecha de que alguien tiene pornografia infantil en el movil, tendrá que ser un juez el que diga lo que hay que hacer.

Insisto, gracias Union Europea por defender la separacion de poderes (no es a la policia ni a apple la que le corresponde hacer nada ahi sin que lo diga un juez) y defender la privacidad de la gente, y en caso de que se descubra a un infractor (en este caso pedofilo) perseguirle.

Se tiene que llegar a un punto intermedio donde la privacidad de otro no sea quebrantada, ya que a mi me parece bien que a ti no te espien pero que tengan medios para poder espiar cuando haya denuncias por abuso, sin la intervención de un juez, ya que sino estamos en el mismo limbo que en cualquier otro problema, que es la indefensión del que quiere guardar material abusivo y difundirlo de una forma que se lucre y encima esté haciendo daño al resto por internet, sin que nadie lo pueda evitar ya que al juez le tienes que ir con pruebas pero ya el daño con miles de fotos difundidas por internet y en los celulares u ordenadores de mucha gente es un problema más grave que ni los jueces pueden ya hacer nada.