X
Revista

Apple anunció que escaneará iPhones en busca de imágenes de abuso sexual infantil

Utilizará un sistema llamado neuralMatch el cual revisará la imagen y tras compararla con una base de datos podrá emitir un alerta sobre pornografía infantil.

06/08/2021

Apple dio a conocer planes para escanear iPhones en los Estados Unidos, en busca de imágenes de abuso sexual infantil , lo que provocó el aplauso de los grupos de protección infantil, pero generó preocupación entre algunos investigadores de seguridad de que el sistema podría ser mal utilizado, incluso por gobiernos que buscan vigilar a sus ciudadanos .

La herramienta diseñada para detectar imágenes conocidas de abuso sexual infantil, llamada "neuralMatch", escaneará las imágenes antes de que se carguen en iCloud. Si encuentra una coincidencia, la imagen será revisada por un humano. Si se confirma la presencia de pornografía infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.

Por otra parte, Apple planea escanear los mensajes cifrados de los usuarios en busca de contenido sexualmente explícito como medida de seguridad infantil, lo que también alarmó a los defensores de la privacidad.

El sistema de detección solo marcará las imágenes que ya están en la base de datos del centro de pornografía infantil conocida . Los padres que toman fotos inocentes de un niño en el baño presumiblemente no deben preocuparse. Pero los investigadores dicen que la herramienta de emparejamiento, que no "ve" tales imágenes, solo "huellas digitales" matemáticas que las representan, podría utilizarse para propósitos más nefastos.

Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría usarse para incriminar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para activar coincidencias con la pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a la policía . "Los investigadores han podido hacer esto con bastante facilidad", dijo sobre la capacidad de engañar a tales sistemas.

Otros abusos podrían incluir la vigilancia gubernamental de disidentes o manifestantes. "¿Qué sucede cuando el gobierno chino dice: 'Aquí hay una lista de archivos que queremos que escanee'", preguntó Green. “¿Apple dice que no? Espero que digan que no, pero su tecnología no dirá que no ".

Empresas tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo huellas digitales de imágenes conocidas de abuso sexual infantil. Apple los ha utilizado para escanear archivos de usuario almacenados en su servicio iCloud, que no está encriptado de forma tan segura como sus datos en el dispositivo, en busca de pornografía infantil.

Apple ha estado bajo presión del gobierno durante años para permitir una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad requirió que Apple realizara un delicado acto de equilibrio entre tomar medidas enérgicas contra la explotación de los niños y mantener su compromiso de alto perfil de proteger la privacidad de sus usuarios.

TEMAS iPhone