Blog IDA Chile | Estrategia para el éxito de tu negocio

Iniciativas de Apple tras el abuso infantil en sus dispositivos genera controversias en torno a la privacidad

Las alarmas en torno a la privacidad de los usuarios se encendieron alrededor de Apple cuando durante la semana pasada la compañía anunció nuevas herramientas en sus dispositivos con el objetivo de detener el abuso infantil en productos y servicios de la marca. 

La intención de Apple, según lo comunicado por la compañía, estaba en implementar nueva tecnología capaz de detectar dentro de iOS, macOS, watchOS e iMessage posibles imágenes de abuso infantil. Esto se logrará mediante “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM [material de abuso sexual infantil] en línea”, el que fue detallado en una sección específica de su sitio web

En detalle, el plan de Apple se sostiene en dos grandes iniciativas. La primera consiste en la “seguridad de la comunicación” y utiliza el aprendizaje automático para identificar y censurar imágenes sexualmente explícitas recibidas por niños. Esto es a través de iMessage y además, notifica a los padres de éstos si el niño insiste en verla. 

Por su parte, la segunda iniciativa es una herramienta diseñada para escanear imágenes de material de abuso sexual infantil. Su objetivo es detectar si las fotografías son subidas a la nube a través de iCloud. Si este es el caso, Apple recibirá una notificación y habiendo corroborado que se trata de material de abuso sexual infantil, notificará a las autoridades. 

No todos del lado de Apple

Todas estas iniciativas parecen a primera vista sumamente nobles y necesarias en un contexto donde el material pornográfico infantil circula con creces en la Internet. Sin embargo, hubieron quienes miraron con desconfianza la implementación de estas herramientas.

Las críticas giraron en torno a la privacidad de los usuarios y el acceso que tendrían las grandes compañías como Apple a nuestra vida privada. Lo anterior, basándose en que esta sería una puerta de entrada para restringir otros tipos de contenidos, y que gobiernos o asociaciones excesivamente autoritarios podrían incluso censurar contenido LGBTIQ+ o contenido asociado a la libertad de expresión sexual.

Las claves tras la implementación

Apple, por su parte, fue claro en un inicio en cuanto a la clase de censura que buscan estas nuevas herramientas. De hecho, han detallado el lado técnico de la detección y censura a través de un documento donde se menciona lo siguiente: 

Además de lo anterior, lo último que hizo Apple fue redactar un documento compuesto por una serie de preguntas y respuestas que sirvan como guía esclarecedora para resolver todas las inquietudes de los usuarios, desde la visión técnica hasta las intenciones tras estas nuevas iniciativas. 

¿Será suficiente para aclarar las dudas de los usuarios y grupos en contra de las nuevas políticas de Apple?