
La función que buscará fotografías de abuso infantil en los iPhone de los usuarios no ha sido bien recibida por unanimidad en las filas de Apple.
La compañía de la manzana, que durante años ha hecho de la privacidad la base de sus campañas de marketing, anunció el desarrollo de algoritmos capaces de ejecutarse en el iPhone de los usuarios, que se encargarán de buscar archivos relacionados con abuso infantil, como pornografía.
Aunque Apple ha presentado la funcionalidad con entusiasmo y afirma que ha recibido el apoyo privado de organizaciones e instituciones, internamente es una compañía dividida. Reuters ha obtenido los testimonios de empleados de Apple, que hablan de reacciones negativas y positivas ante esta funcionalidad.
Al igual que muchas otras empresas durante el crecimiento del teletrabajo, Apple cuenta con canales de Slack que los empleados pueden usar para comunicarse entre sí. Uno de estos canales ha sido desbordado, con más de 800 mensajes en una semana, un volumen y una duración sorprendentes según fuentes internas, ya que la mayoría de canales se centran en mantener el contacto social, y el secretismo sobre los productos en desarrollo forma parte de la cultura de empresa.
La mayoría de los mensajes provienen de empleados que no trabajan en roles relacionados con la seguridad y la privacidad, que probablemente se habrán enterado de la nueva función al mismo tiempo que el resto del mundo. Muchos han mostrado preocupaciones, como que la función pueda ser aprovechada por gobiernos represivos para censurar material y realizar arrestos.
Otros mensajes advierten que la imagen de Apple puede salir mal parada, y que su reputación como compañía protectora de la privacidad de los usuarios está siendo dañada con esta nueva funcionalidad.
Sin embargo, estos mensajes no se encuentran sin réplica, con algunos empleados afirmando que la solución de Apple es una "respuesta razonable" a la presión de los gobiernos para acabar con el tráfico de material ilegal. El escaneo de archivos sólo se activa si el usuario los sube a iCloud, pero el algoritmo no se ejecuta en los servidores sino en el propio dispositivo; los únicos archivos que son enviados para revisión, y posible denuncia ante la policía, son los que han dado positivo después de una cuota determinada.
Es precisamente eso lo que da esperanza a algunos empleados de Apple, de que esta funcionalidad es el principio de una mayor apuesta por la privacidad, ya que permitiría implementar un cifrado más fuerte en iCloud, que no pueda ser roto fácilmente por atacantes ni por gobiernos. Sin embargo, Apple no ha anunciado nada semejante aún.
Desde el primer momento, la medida recibió el rechazo de expertos en ciberseguridad, que ven esta funcionalidad como un paso "hacia la vigilancia y el control" de los usuarios. El gran temor es que gobiernos autoritarios puedan obligar a Apple a buscar otro tipo de archivos, como los que contengan referencias religiosas o LGBT, facilitando la persecución de minorías. En respuesta, Apple ha dicho que simplemente "no aceptará" esas demandas de los gobiernos, pero la cuestión es qué hará si es obligada por la ley.