Tecnología

Cómo Apple escaneará fotos guardadas en el iPhone en busca de abuso infantil

  • El sistema es capaz de encontrar archivos ilegales o criminales
  • Pero los expertos advierten de un posible abuso contra usuarios inocentes

Apple ha implementado la tecnología NeuralHash, que afirma que le permitirá encontrar pruebas criminales, incluyendo pornografía infantil, en los iPhone de los usuarios; una medida que ya ha recibido críticas de los expertos.

El sistema fue revelado inicialmente por el experto en criptografía Matthew Green, y apenas unas horas después, Apple confirmó el lanzamiento de una herramienta capaz de escanear el contenido almacenado en la memoria de un iPhone, obteniendo copias de fotografías en las que se muestra abuso a menores. Por lo tanto, Apple podría saber si un usuario tiene ese tipo de contenido, y denunciarlo a las autoridades.

Para calmar los miedos relacionados con la privacidad, Apple ha conseguido que el programa no necesite copiar archivos a servidores externos, sino que será capaz de usar la potencia del chip del iPhone para realizar el análisis de manera local. De esa forma, Apple pretende demostrar una mayor apuesta por la privacidad, ya que los archivos no saldrán del dispositivo.

Además, Apple asegura que este sistema es opcional para los usuarios, ya que sólo se analizarán las fotos y archivos que sean subidos a iCloud, su sistema en la nube; de hecho, llega a afirmar que su método es más privado que otros servicios en la nube, que están obligados por la ley estadounidense a analizar los archivos subidos a sus servidores. En cambio, Apple realiza ese trabajo en el móvil del usuario, y sólo si se cumplen una serie de requisitos, el archivo será subido a un servidor para que un empleado lo compruebe.

Sin embargo, eso no ha sido suficiente para convencer a expertos como Green, que ya han apuntado varios detalles preocupantes de este método. Para empezar, está el problema de los falsos positivos; por muy bueno que sea un algoritmo, es inevitable que falle en un cierto porcentaje de las ocasiones. En esos casos, los archivos que sean marcados por el algoritmo como sospechosos tendrían que ser enviados a un servidor para que los mire un empleado y confirmar que son realmente ilegales; por lo tanto, cabe la posibilidad de que una persona vea nuestras fotos y archivos privados.

Pero incluso aunque los algoritmos sean los mejores del mercado, este sistema tiene el potencial de ser mal usado por los gobiernos y fuerzas de seguridad. El motivo es que el método de detección se basa en comparar "hashes", ristras de números generados por una operación matemática aplicada sobre los archivos; la lógica es que, si dos archivos tienen el mismo "hash", significa que son idénticos.

Apple tiene una lista de "hashes" de archivos ilegales o criminales, obtenidos inicialmente por fuentes públicas, que el algoritmo es capaz de comparar con los archivos almacenados en el iPhone. El problema de este enfoque es que su utilidad y buen uso depende en buena medida quién decide qué entra en la lista; por ejemplo, Green plantea lo poderosa que sería esta herramienta en manos de gobiernos autoritarios, que serían capaces de crear una "lista negra" de archivos que los ciudadanos no deberían tener en el móvil.

No es un planteamiento tan absurdo. Países como China ya han desarrollado métodos para analizar archivos transmitidos a través de Internet, y gobiernos como estadounidense han mostrado reiteradamente su intención de implementar "puertas traseras" en el cifrado extremo a extremo, que permitan "proteger al público, especialmente menores".

Un sistema como el desarrollado por Apple podría servir para obtener el contenido de las comunicaciones, una vez que han sido descifradas en el móvil del usuario, y el miedo es que la compañía vaya a ofrecer este sistema a los gobiernos, ya sea queriendo o sin querer.

Por el momento, el nuevo sistema de Apple sólo se ha implementado en los EEUU. En la Unión Europea, los sistemas que analizan archivos de los usuarios de servicios en la nube están prohibidos, después de nuevas reglas que afectaron a servicios como Facebook. Por lo tanto, por ahora no está claro si Apple intentará aplicar esta tecnología también en España.

comentarios4WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin

Comentarios 4

En esta noticia no se pueden realizar más comentarios

Usuario validado en elEconomista.es
aviamquepasa
A Favor
En Contra

Es repugnante que Apple siquiera considere el uso de tales algoritmos. Son un claro ataque a la privacidad. Apple se ha vuelto loco.

Puntuación 7
#1
Muy fuerte esto
A Favor
En Contra

Apple presupone que sus clientes son delincuentes.

Puntuación 9
#2
Aaarrrraaamiiiisssss
A Favor
En Contra

Como que no está claro si lo implementará en España... Si esta prohibido por las leyes europeas q coño van a implementar.. Q se atrevan si tienen guebos...

Puntuación 0
#3
deciasoyunaprotozoo
A Favor
En Contra

villano de lluvia albondigas dos es igualito al jobs quien creia que sus hologramas lo iban a salvar

Puntuación 0
#4