Un grupo de víctimas de abuso sexual infantil presentó una demanda contra Apple por no implementar herramientas que detecten material de abuso sexual infantil (CSAM) en su servicio de almacenamiento iCloud. Este litigio, presentado en un tribunal del norte de California, exige una compensación de más de 1.200 millones de dólares, abarcando a un grupo potencial de 2.680 afectados.
En 2021, Apple había anunciado planes para desarrollar una herramienta que identificara imágenes de CSAM y notificara al Centro Nacional para Niños Desaparecidos y Explotados. Sin embargo, la compañía abandonó el proyecto debido a preocupaciones relacionadas con la privacidad de los usuarios. Según la demanda, Apple no tomó medidas para detectar o limitar la circulación de CSAM, lo que habría perpetuado el daño a las víctimas.
Fred Sainz, portavoz de Apple, respondió a las acusaciones mediante un comunicado en el que reafirmó el compromiso de la empresa en la lucha contra el CSAM:
“Estamos innovando de manera urgente y activa para combatir estos delitos sin comprometer la seguridad y la privacidad de todos nuestros usuarios. Funciones como Communication Safety, por ejemplo, advierten a los niños cuando reciben o intentan enviar contenido que contiene desnudez para ayudar a romper la cadena de coerción que conduce al abuso sexual infantil”.
Esta no es la primera vez que Apple enfrenta cuestionamientos sobre su enfoque hacia la protección infantil en línea. Recientemente, la Sociedad Nacional para la Prevención de la Crueldad hacia los Niños (NSPCC) en el Reino Unido criticó a la compañía por no informar sobre casos de abuso sexual infantil.
El caso reaviva el debate sobre el equilibrio entre la privacidad de los usuarios y las herramientas de protección infantil, un dilema que sigue generando controversia en el ámbito tecnológico y legal.
¿Crees que las empresas tecnológicas deberían priorizar la privacidad de los usuarios sobre herramientas de protección infantil, o es posible encontrar un equilibrio adecuado?