Apple suspendió hasta nuevo aviso su plan de escanear las fotos de los usuarios de iPhone en busca de pornografía infantil y abuso de menores. La decisión de postergar el plan, que había programado para finales de 2021, se debió a la avalancha de críticas que recibió la empresa de parte de defensores de las libertades civiles. El mecanismo algorítmico pretendido por Apple consideraba pedófilos a todos los usuarios de iPhone hasta que la compañía demostrara lo contrario. Se trataba de cotejar las fotografías de los usuarios contra un catálogo conocido de imágenes de abuso infantil, para luego tomar medidas contra el propietario de contenido ilegal.

El fin de Apple es irreprochable: luchar contra el abuso de menores en todas sus formas, desde violencia sexual hasta tortura. Un reciente reportaje de The New York Times documentó que el inventario de imágenes y videos de abuso de niños en internet pasó de 3,000 piezas en 1998 a 45 millones en 2018. Pero los medios de Apple para alcanzar ese fin son totalmente peligrosos para las libertades, los derechos civiles, la vida privada y la protección de datos personales.

Los reclamos tuvieron eco en las oficinas centrales de Apple. “Anteriormente anunciamos planes relacionados con funciones para ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para embaucarlos y aprovecharse de ellos y para ayudar a limitar la propagación de material sobre abuso sexual infantil. Basándonos en la retroalimentación de nuestros clientes y de grupos de defensoría civil, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”, informó Apple el 3 de septiembre pasado.

La idea original de Apple significaba la creación de una puerta trasera al contenido privado de los usuarios de iPhone que, en manos de gobiernos autoritarios o empresas sin escrúpulos, abrirá una caja de Pandora con los peores demonios de la distopía tecnológica. Se trataba de revisar el contenido fotográfico de los usuarios que tuvieran habilitado el servicio de almacenamiento en la nube de Apple, iCloud, para etiquetarlo, filtrarlo con la base de datos de la organización privada National Center for Missing and Exploited Children (NCMEC) y luego pasarlo por una revisión humana para determinar la ilegalidad y tomar acciones en consecuencia. El plan también consistía en revisar las comunicaciones de los menores para detectar situaciones irregulares a juicio de Apple y avisar a sus tutores.

El sistema presentaba distintas fallas metodológicas más allá de la pretendida idea de que cualquier problema social puede resolverse con la aplicación de tecnología (algo que se conoce como tecnosolucionismo). El sistema, basado en inteligencia artificial, representa la construcción de una matrix capaz de analizar cualquier otro tipo de contenido hospedado en un teléfono. ¿Se imaginan una tecnología con estas características en poder del Gobierno? ¿Una tecnología que puede leer y analizar mensajes de voz, videos, fotografías y cualquier otra imagen para alertar a personas distintas al propietario del contenido?

La suspensión del plan de Apple no significa la desaparición de su tecnología de escaneo de imágenes. Se trata de una suspensión de su puesta en marcha. La semilla distópica está plantada y la certeza de su existencia debe encender todas las alertas para la defensa de nuestras libertades. Apple podrá dejar la semilla sin riego ni abono, pero hizo el anuncio de que el sistema es posible y otros —si no es que ya existe, como en el caso del software de espionaje Pegasus y otros similares— pueden poner manos a la obra para desarrollarlo.

Nadie reprocha el fin de Apple de combatir la pornografía infantil y el abuso de menores, pero crear una herramienta que nos convierte a todos en sospechosos es construir con tecnología las bases de una sociedad totalitaria. Y sabemos bien en qué terminan esas sociedades.

- - - - - - - - FIN - - - - - - - - -

Entre los debates más recientes sobre el tema puedo mencionar a las aplicaciones tecnológicas para rastrear, monitorizar y alertar a los usuarios sobre posibles contactos con personas enfermas de Covid-19. La medida —que se popularizó globalmente en los primeros meses de pandemia— implicaba que los usuarios permitieran a las aplicaciones conocer los lugares públicos que visitaban, para luego cruzar la información con las bases de datos de enfermos de Covid que visitaron los mismos sitios y alertar a los usuarios en peligro.

José Soto Galindo

Editor de El Economista en línea

Economicón

Periodista. Desde 2010 edita la versión digital de El Economista en la Ciudad de México. Maestro en Transparencia y Protección de Datos Personales por la Universidad de Guadalajara. Tiene especialización en derecho de las telecomunicaciones y las tecnologías de la información. Su blog personal es Economicón.

Lee más de este autor