Apple da un paso ”hacia la vigilancia y el control” de los usuarios, alertan expertos
Share
La nueva funcionalidad implementada por Apple, capaz de detectar la presencia de imágenes de abuso infantil en el iPhone de los usuarios, ha sido duramente criticada en una carta abierta, firmada ya por miles de personas.
La semana pasada Apple confirmó que escaneará las fotos de los iPhone, con la implementación de nuevos algoritmos de detección de abuso infantil, incluyendo pornografía. El sistema, que por el momento sólo se aplicará a usuarios de los EEUU, curiosamente se presenta como una alternativa que protege mejor la privacidad de los usuarios; aunque todos los servicios en la nube que operan en EEUU están obligados por ley a analizar el contenido que alojan, la diferencia es que Apple busca este contenido directamente en el móvil de los usuarios, y sólo envía las imágenes a un servidor externo si encuentra los indicios suficientes.
Sin embargo, eso es precisamente lo que muchos expertos en ciberseguridad temen más, y este fin de semana han publicado una carta abierta a Apple en la que explican cómo el sistema podría ser abusado para vulnerar la privacidad de los usuarios.
Los algoritmos funcionan comparando las imágenes almacenadas en el iPhone con una lista de archivos; por lo tanto, el gran problema está en quién decide qué archivos se buscan. Aunque Apple afirma que los archivos buscados muestran abuso infantil, la lista es secreta, y el miedo es que cada gobierno pueda modificarla a su gusto.
El investigador Nadmi Kobeissi, pregunta “¿Qué pasa cuando regulaciones en Arabia Saudita obligan a escanear mensajes por homosexualidad u ofensas a la corona?”. Apple debe seguir las leyes de los países en los que opera, y los expertos creen que les acaba de ofrecer la herramienta perfecta para crear nuevas leyes que la usen.
Estos algoritmos son capaces de saltarse el cifrado extremo a extremo de apps seguras como Signal o WhatsApp, ya que se ejecutan en el propio dispositivo; esta última ha criticado duramente a Apple, con su líder Will Cathcart llegando a afirmar que ha implementado un “sistema de vigilancia” en los iPhone capaz de escanear contenido privado.
La Electronic Frontier Foundation pone el ejemplo de países con gobiernos autoritarios que han implementado leyes que persiguen a grupos por su religión o sexualidad en Internet, y que ahora podrían añadir la obligatoriedad de analizar los archivos descargados automáticamente; algo que ahora Apple no tendría más remedio que aceptar, ya que ha demostrado que tiene la tecnología para hacerlo. Y el resto de competidores se vería obligado a desarrollar lo mismo.
El sistema de Apple también ha sido criticado por lo que se consideran fallos de diseño; según unos expertos, el sistema puede adaptarse a cada usuario individual, por lo que, por ejemplo, en un iPhone se podría buscar abuso infantil, y en otro se podría buscar otro tipo de contenido. Eso abre la puerta a la persecución de personas concretas.
Los firmantes de la carta piden a Apple que pare inmediatamente la implementación de su sistema, y realice una declaración pública en la que reafirme su apuesta por el cifrado extremo a extremo y la privacidad del usuario. En el momento de escribir estas palabras, más de 5.500 personas han firmado en GitHub.
Para Apple, esto es algo más que una simple funcionalidad. Durante años, la compañía ha intentado separarse de sus grandes rivales del sector tecnológico, Google y Facebook, centrándose en la privacidad; sus campañas de marketing han presumido que “lo que pasa en el iPhone, se queda en el iPhone”, pese a que el bloqueo de rastreadores en las apps le ha hecho perder anunciantes en favor de Android. Ahora, muchos ven una gran contradicción en este escaneo de archivos personales; es una polémica que probablemente afectará a la próxima presentación del iPhone 13.