Apple da marcha atrás y paraliza su polémico sistema de rastreo de imágenes del iPhone e iCloud contra la pornografía infantil

Apple da marcha atrás y paraliza su polémico sistema de rastreo de imágenes del iPhone e iCloud contra la pornografía infantil
108 comentarios

Tras las numerosas críticas, Apple ha decidido rectificar y retrasar la implementación de su sistema de escaneo de imágenes en los iPhone e iCloud para luchar contra la explotación infantil. A través de un comunicado enviado a los medios, Apple informa que "basándose en el feedback de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica".

El sistema se anunció a principios de agosto, donde se explicó su plan de implementar un sistema para proteger a los menores frente a los abusadores que utilizaban las herramientas digitales. Un escaneo que identificaba si el usuario cargaba imágenes con pornografía infantil o contenido ilegal relacionado en iCloud. Un método criticado por las importantes dudas a nivel de privacidad que generaba.

En el documento de Apple donde describe este sistema se aplican tres medidas. Por un lado "aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple", en un segundo lugar con iCloud Photos "en iOS y iPadOS se usarán nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de pornografía infantil" y finalmente funciones de Siri y Search para "intervenir cuando los usuarios traten de buscar temas relacionados con CSAM ".

Apple

Críticas como la de la Electronic Frontier Foundation (EFF) afirmaban que la empresa estaba "abriendo la puerta a abusos más amplios" y alertaban que era casi imposible crear un sistema de escaneo local que solo funcione con imágenes explícitas enviadas o recibidas por niños pero no ponga en riesgo la privacidad del resto de imágenes.

El nuevo sistema estaba previsto para entrar en funcionamiento a finales de este año. Por el momento Apple no ha informado cuándo lo implementará ni qué cambios se prevén, aunque sí ha actualizado la página de soporte indicando el retraso.

El escaneo de imágenes para luchar contra la pornografía infantil es una práctica extendida en distintas empresas tecnológicas, desde Facebook hasta Google con Drive.

Temas
Inicio