El equipo de investigadores internacionales ha descubierto nuevos conocimientos y valiosos hallazgos que los fabricantes de asistentes de voz pueden utilizar para mejorar la seguridad de sus asistentes de voz, así como la privacidad de los usuarios. El equipo investigó a los ocho asistentes de voz ingleses y chinos más populares en relación con el «fenómeno de la falsa vigilia».
Los asistentes de voz suelen escuchar activamente el entorno para activar sus «palabras de activación» nativas, como «Alexa», «OK Google» o sus nombres de marca. El fenómeno de vigilia falsa aparece cuando el asistente de voz detecta palabras de activación falsas, las llamadas «palabras borrosas», por ejemplo, a través de conversaciones o programas de televisión que se ejecutan en segundo plano. Los atacantes pueden utilizar estas palabras incorrectamente reconocidas para activar asistentes de voz sin que el usuario se dé cuenta.
Por primera vez, el equipo dirigido por el profesor Wenyuan Xu, el doctor Yanjiao Chen y el profesor Ahmad-Reza Sadeghi ha logrado generar automática y sistemáticamente sus propias palabras de activación falsas en lugar de proyectar material de audio. La generación de estas palabras borrosas comenzó con una palabra inicial conocida como «Alexa». Los investigadores no tuvieron acceso al modelo que reconoce las palabras de activación ni al vocabulario en el que se basa el asistente de voz. En este contexto, también investigaron las causas fundamentales de la aceptación de palabras incorrectas para despertarse.
Primero, identificaron las características que contribuían con mayor frecuencia a la aceptación de palabras confusas. Los factores determinantes se centraron solo en una pequeña sección fonética de la palabra. Sin embargo, los asistentes de voz investigados también fueron capaces de activar palabras falsas que diferían significativamente de las palabras de despertar reales, por lo que los ruidos circundantes, el volumen de las palabras y el género del hablante apenas influyeron.
Utilizando algoritmos genéticos y aprendizaje automático, se pudieron generar más de 960 palabras borrosas personalizadas en inglés y chino, lo que activó el «detector de palabras de activación» de los asistentes de voz. Por un lado, esto muestra la gravedad del fenómeno de la falsa vigilia y, por otro lado, proporciona una comprensión más profunda del mismo.
El impacto del fenómeno de vigilia falsa se puede reducir significativamente volviendo a entrenar el detector de palabras de activación del asistente de voz con las palabras borrosas generadas. Esto permite que el asistente de voz distinga con mayor precisión entre palabras de activación falsas y reales. Los fabricantes de Voice Assistant pueden beneficiarse enormemente de los resultados de esta investigación y volver a entrenar los modelos existentes para hacerlos más precisos y menos vulnerables a los ataques de activación falsos, y así aumentar la seguridad de sus propios productos y mejorar la privacidad del usuario.
Cuando los asistentes de voz escuchan aunque no deberían
Yanjiao Chen et al, FakeWake: Comprensión y mitigación de las palabras de activación falsas de los asistentes de voz. arXiv: 2109.09958v1 [cs.LG], arxiv.org/abs/2109.09958
Citación: Asistente de voz falsa para despertar: la investigación proporciona nuevos conocimientos sobre el ‘fenómeno de la falsa vigilia’ (2021, 27 de septiembre) recuperado el 26 de octubre de 2021 de https://techxplore.com/news/2021-09-fake-waking-voice-insights -fenómeno-falso.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings