Noticias
09/12/24, 07:00:59
Se acusa a Apple de incumplir la detección de CSAM en iCloud
https://static.htcmania.com/2023-09-126-09-01-19-08122024-45843-htcmania.webp
A pesar de haber anunciado tiempo atrás el desarrollo de una herramienta para detectar CSAM (material de abuso sexual infantil) en iCloud, Apple se enfrenta ahora a una demanda colectiva presentada por víctimas de abusos contra menores. Estas personas sostienen que la empresa no llevó a cabo la implementación de dicho sistema para frenar la difusión de material de abuso sexual infantil, dando como resultado la perpetuación del daño causado. La cifra solicitada supera los 1.200 millones de dólares, representando a miles de afectados que esperaban una intervención más firme y efectiva. La idea original consistía en crear un mecanismo que identificase imágenes prohibidas en el entorno virtual, con el objetivo de notificar su existencia a entidades especializadas y así interrumpir su circulación. Sin embargo, la iniciativa se vio truncada ante las críticas que cuestionaban su impacto en la privacidad del usuario, llevando a la compañía a abandonar el proyecto sin concretar soluciones alternativas para impedir la presencia de ese contenido.
Mientras las víctimas señalan que la inacción prolonga su sufrimiento, la marca asegura que el combate contra estas prácticas deplorables sigue siendo una prioridad. La compañía insiste en estar explorando métodos para luchar contra estos delitos sin comprometer la seguridad y la confidencialidad de quienes utilizan sus servicios. Ante este dilema, se abre un escenario donde los perjudicados esperan una respuesta contundente, y la firma busca equilibrar sus responsabilidades éticas con el reto de preservar la confianza del público. El desenlace del litigio podría marcar un precedente en torno a las obligaciones que empresas tecnológicas asumen frente a este tipo de delitos.
fuente (https://www.engadget.com/big-tech/apple-sued-for-failing-to-implement-tools-that-would-detect-csam-in-icloud-202940984.html?src=rss)
https://static.htcmania.com/2023-09-126-09-01-19-08122024-45843-htcmania.webp
A pesar de haber anunciado tiempo atrás el desarrollo de una herramienta para detectar CSAM (material de abuso sexual infantil) en iCloud, Apple se enfrenta ahora a una demanda colectiva presentada por víctimas de abusos contra menores. Estas personas sostienen que la empresa no llevó a cabo la implementación de dicho sistema para frenar la difusión de material de abuso sexual infantil, dando como resultado la perpetuación del daño causado. La cifra solicitada supera los 1.200 millones de dólares, representando a miles de afectados que esperaban una intervención más firme y efectiva. La idea original consistía en crear un mecanismo que identificase imágenes prohibidas en el entorno virtual, con el objetivo de notificar su existencia a entidades especializadas y así interrumpir su circulación. Sin embargo, la iniciativa se vio truncada ante las críticas que cuestionaban su impacto en la privacidad del usuario, llevando a la compañía a abandonar el proyecto sin concretar soluciones alternativas para impedir la presencia de ese contenido.
Mientras las víctimas señalan que la inacción prolonga su sufrimiento, la marca asegura que el combate contra estas prácticas deplorables sigue siendo una prioridad. La compañía insiste en estar explorando métodos para luchar contra estos delitos sin comprometer la seguridad y la confidencialidad de quienes utilizan sus servicios. Ante este dilema, se abre un escenario donde los perjudicados esperan una respuesta contundente, y la firma busca equilibrar sus responsabilidades éticas con el reto de preservar la confianza del público. El desenlace del litigio podría marcar un precedente en torno a las obligaciones que empresas tecnológicas asumen frente a este tipo de delitos.
fuente (https://www.engadget.com/big-tech/apple-sued-for-failing-to-implement-tools-that-would-detect-csam-in-icloud-202940984.html?src=rss)