
Apple ha respondido a la gran polémica que ha generado su nueva funcionalidad, que es capaz de escanear archivos en busca de fotografías de abuso infantil en el iPhone.
Desde el primer momento en el que esta función fue filtrada, el rechazo entre expertos de ciberseguridad ha sido generalizado, al abrir la puerta a posibles abusos de gobiernos o incluso de la propia Apple. Estos expertos, junto con organizaciones de defensa de la privacidad, han publicado una carta abierta a Apple, en la que piden a la compañía que no implemente esta tecnología.
Lejos de eso, la primera reacción de Apple ha sido la contraria, publicando un documento (pdf) en el que defiende las bondades de este desarrollo, e intenta calmar los temores que ha generado. Para empezar afirma haber recibido mucho apoyo de organizaciones relacionadas con la protección de los menores, además de organizaciones privadas y partes interesadas. Sin embargo, también reconoce que ha recibido "muchas preguntas" y por eso, quiere aclararlas; no es casualidad que estas "preguntas" sean las mismas críticas que el sistema ha recibido en apenas unos días.
El sistema de detección de Apple funciona comparando los "hashes", ristras de números generados a partir de un algoritmo; la lógica es que, si dos archivos tienen el mismo "hash", es que son idénticos, bit por bit. Por lo tanto, las fotos no se comparan visualmente hablando, sólo se comprueba si son exactamente los mismos archivos que los buscados. El problema es que este sistema pueda ser usado para encontrar otros archivos, aparte de los que contienen abuso infantil. Apple afirma que su proceso está diseñado para evitar que eso ocurra: los "hashes" de las imágenes provienen de la NCMEC (el centro nacional para niños desaparecidos y explotados de los EEUU) y otras organizaciones de defensa de menores, así que Apple afirma que sólo las imágenes de abuso infantil (cuya posesión es ilegal en los EEUU) serán detectadas.
Sin embargo, el gran peligro de este sistema denunciado por los expertos es que esa lista de "hashes" podría ser modificada por los gobiernos, introduciendo archivos que no tienen nada que ver con abuso infantil, como los relacionados con religiones perseguidas, organizaciones LGTB, o movimientos políticos. En manos de un gobierno autoritario que lo pidiese, esa sería una gran herramienta para capturar a cualquier usuario disidente o contrario a sus políticas.
En respuesta, Apple sólo dice una cosa: "Apple rechazará esas demandas". Promete que el sistema ha sido creado únicamente para detectar abuso infantil, identificado por los expertos, y que no será usado para nada más. Apple confirma que en el pasado ha recibido órdenes de gobiernos para implementar cambios que degradan la privacidad, y las ha rechazado y continuará rechazándolas. También ha hablado del papel humano en este sistema, recordando que no denunciará automáticamente a la policía a los usuarios que generen falsos positivos, ya que todas las denuncias tendrán que ser aprobadas por empleados que verán la imagen detectada. Al mismo tiempo, afirma que esos casos serán "poco probables".
Es una declaración importante: demuestra que Apple sabe muy bien cuál es el principal problema de este sistema, y sabe que corre el peligro de ser etiquetada como aliada de gobiernos autoritarios para perseguir a minorías; hablamos de una compañía que ha creado una imagen de privacidad y de respeto, ya sea bloqueando rastreadores en las apps, o vendiendo pulseras arcoíris con motivo del Día del Orgullo. Esta polémica puede afectar seriamente a esa imagen.
El problema para Apple son los antecedentes. La compañía colabora con todos los gobiernos de los países en los que está presente. China es el caso más conocido, donde ha expulsado a apps críticas con el gobierno, o que hayan podido servir para organizar protestas. En Arabia Saudí, no incluye la app FaceTime en los iPhone por usar cifrado extremo a extremo, prohibido por el gobierno.
Por el momento, Apple ha recordado que esta medida sólo afecta a los usuarios que hayan elegido hacer una copia de sus fotos en iCloud, y que por el momento, está en funcionamiento sólo en los EEUU.