¿Dejarías que un extraño te escuchara a escondidas y que además guardara los audios? Para la mayoría de las personas la respuesta inmediata sería: ¿Estás loco?

Esto es lo que Amazon nos ha estado haciendo a millones de nosotros a través de su asistente inteligente Alexa con sus bocinas y micrófonos Echo.

Lamentablemente, Alexa no está solo. Silicon Valley tiene muchas ganas de cruzar la frontera de nuestras casas.

Muchas de las personas que tienen este tipo de asistente inteligente no se han dado cuenta que Amazon conserva una copia de todo lo que Alexa graba después de escuchar su nombre. Siri de Apple, y hasta hace poco el asistente de Google, también mantienen las grabaciones con el objetivo de entrenar sus respectivas inteligencias artificiales.

En cuatro años de grabaciones, que yo recuerde, Alexa debió de haber escuchado solicitudes de espagueti, fragmentos de Downtown Abbey, conversaciones delicadas que incluían la palabra que alerta a Alexa para que inicie la grabación, charlas familiares que incluyen nombres de medicamentos y la voz de un amigo con el que cerré un acuerdo comercial.

Por mucho que nos preocupemos por la posibilidad de que nos espíen las aplicaciones que descargamos en nuestros teléfonos, la peor amenaza es que nos espíen en nuestras casas.

Las casas cada vez están más conectadas con aplicaciones y la producción de datos es enorme. Existen pocas regulaciones al respecto, no hay perros guardianes que nos protejan de este tipo de asaltos.

No hay que repetir los errores que ya vimos en el caso de Facebook. Cualquier tipo de información personal que se recopile puede ser utilizada en nuestra contra.

Por favor, Alexa, deja de grabarnos.

El espía es tu bocina

Eavesdropping es una palabra sensible para Amazon que ha luchado con las dudas que tienen los usuarios de Alexa sobre el momento en que los graba.

Alexa mantiene un registro de lo que escucha cada vez que se activa una bocina Echo. En teoría se supone que debe grabar sólo con una palabra que sirve para activar el sistema: “¡Alexa!”. Pero cualquiera que tenga este tipo de dispositivo sabe que es muy fácil que se active con otro tipo de palabras. He contado un sinnúmero de veces cuando se ha activado Alexa sin haber mencionado su nombre. (Amazon dice que ha mejorado la precisión de la activación del sistema en un 50% durante el último año.)

¿Qué puedes hacer para que Alexa deje de grabarte? La respuesta de Amazon es similar a la de Facebook: “Los clientes tienen el control”. La realidad es que es muy difícil. La única forma segura es desconectar el micrófono que tiene la bocina Echo, pero al hacerlo, dejas sin funcionar a Alexa.

Amazon dice que mantiene las grabaciones para mejorar los productos, no para vender la información. Sin embargo, la información la mantienen y está en riesgo.

En mayo del 2018 una familia en Portland, Oregon, se percató que los micrófonos Echo grabaron una conversación privada y la enviaron de manera aleatoria a una persona.

Fue Bloomberg quien descubrió que empleados de Amazon escuchaban las conversaciones obtenidas por Alexa con el objetivo de perfeccionar la inteligencia artificial del sistema.

En el caso de Apple, que también graba lo que decimos a Siri, asegura que los datos de voz se les asigna un “identificador aleatorio que no está vinculado a individuos”, ¿pero qué tan anónima puede ser una grabación de su voz?

Google también solía grabar todas las conversaciones de su asistente pero el año pasado modificó de manera silenciosa su variables predeterminadas para no grabar lo que escucha después del mensaje:

“Hola, Google”.