¿Alexa, Siri y Google escuchan nuestras conversaciones? Un video viral en TikTok lo comprueba

En redes sociales, se ha vuelto tendencia un video que muestra cómo el altavoz de Amazon puede grabar algunos fragmentos de voz cuando no se ha mencionado la palabra de activación.

X-DEMO-CONTENT
Tecnología Alexa | Siri | Amazon | Investigadores del Instituto Max Planck de Seguridad y Privacidad publicaron data sobre más de 1000 activaciones involuntarias.
AFP

Todas nuestras intercciones con el altavoz inteligente de Alexa, Siri o Google se graban. Pero la criminóloga María Aperador descubrió que algunos audios no iban precedidos de las palabras de activación como “Hey, Siri”. Esto lo denunció en un video en TikTok e Instagram que se volvió viral.

¿Cómo es posible que se guarde nuestra voz?

El medio español El País hablo con la criminóloga María Aperador para conocer sus grabaciones, que duran alrededor de 6 segundos. Estas son conversaciones casuales de personas en su casa o de ella. Pero la criminóloga ha revisado los archivos de Amazon enviados y en dos encontró que no había la palabra de activación.

¿Existen activaciones accidentales en altavoces inteligentes?

Tras analizar 11 dispositivos de 8 fabricantes distintos, investigadores de la Universidsd de Ruth de Bochum y del Instituto Max Planck de Seguridad y Privacidad publicaron data sobre más de 1000 activaciones involuntarias.

Pra activarse, con la palabra "Alexa", “Ok Google” o “Hey Siri”, los altavoces cuentan con un sistema en permanente rastreo de ese término. “Al final, son dispositivos que están a la escucha constantemente. Pero esto también lo hacen los smartphones o muchos porteros automáticos. No es exclusivo de Alexa”, cuenta Josep Albors, director de Investigación y Concienciación en la firma de ciberseguridad ESET España.

Además, mencionaron que cuando pones el altavoz en espera activa, está absorviendo lo que hablamos en todo momento. No lo graba, pero el algoritmo lo procesa. En el caso de las grabaciones, se producen solo cuando se activa el dispositivo, y los usuarios pueden escoger no almacenarlas en sus opciones de privacidad.

Los especialistas en ciberseguridad aseguraron que si el sonido se procesara para acceder a datos más allá de la palabra clave, sería un problema de privacidad muy grave para estas empresas, lo que supondría no solo la perdida de confianza, sino de millones de dólares.

Te recomendamos