Apple analizará fotos almacenadas en iPhones e iCloud en busca de imágenes de abuso infantil

Apple planea analizar fotos almacenadas en iPhones e iCloud para imágenes de abuso infantil, según Financial Times. El nuevo sistema podría ayudar a las fuerzas del orden en las investigaciones penales, pero puede abrir la puerta a una mayor demanda legal y gubernamental de datos por parte de los usuarios, por invasión de la intimidad.

El sistema, llamado neuralMatch, “alertará proactivamente a un equipo de revisores humanos si cree que se detectan imágenes ilegales, quienes luego se pondrán en contacto con las fuerzas del orden si se puede verificar el material”, afirma el Financial Times. neuralMatch, que se entrenó con 200.000 imágenes del Centro Nacional para Niños Desaparecidos y Explotados, se lanzará primero en los EE.UU. Las fotos serán hash y se compararán con una base de datos de imágenes conocidas de abuso sexual infantil.

“Según las personas informadas sobre los planes, cada foto cargada en iCloud en los EE.UU. Recibirá un ‘vale de seguridad’, que indica si es sospechosa o no”. “Una vez que un cierto número de fotos se marcan como sospechosas, Apple permitirá que todas las fotos sospechosas se descifren y, si aparentemente son ilegales, se transmitirán a las autoridades pertinentes”.

El profesor y criptógrafo de la Universidad John Hopkins, Matthew Green, expresó su preocupación sobre el sistema en Twitter el miércoles por la noche. “Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dijo Green. “¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?”.