La suplantación de voz representa un fascinante desarrollo de la tecnología del siglo XXI, pero también es increíblemente peligrosa, ya que suponen una enorme amenaza para los datos, el dinero y las empresas.
La voz se considera una forma de biometría humana y es un medio de comunicación. Las características de la voz de una persona son únicas, por lo que la voz puede utilizarse con fines de autenticación e identificación biométrica.
La biometría de voz es una forma sencilla de autenticar a los usuarios que no requiere ningún dispositivo o equipo sensor único.
Se puede usar un teléfono inteligente o un micrófono normal para esto. La biometría de voz se utiliza en el proceso de verificación o reconocimiento del hablante.
La biometría de voz es la tecnología que utiliza el procesamiento uno a uno para comparar los discursos de dos personas.
Si ambos discursos provienen del mismo individuo, se denomina verificación del hablante. Por otro lado, la identificación del hablante es donde un individuo desconocido se identifica con su voz.
Hay dos atributos de una persona a los que se hace referencia como biometría.
Existe la técnica de autenticación más natural como el iris, la cara, la huella dactilar, etc., y la técnica conductual o comportamiento como la firma, la voz, la forma de andar, etc.
Los métodos de preservación de la privacidad son cada vez más importantes para mejorar la privacidad y la seguridad del consumidor a medida que las tecnologías de voz se vuelven parte de la vida diaria.
Los consumidores usan asistentes de voz como Amazon Alexa o Google Assistant para comprar en línea, hacer llamadas telefónicas, enviar mensajes, controlar electrodomésticos inteligentes y acceder a servicios bancarios.
Sin embargo, estos dispositivos tienen fallas de seguridad. Los piratas informáticos pueden manipular los sistemas de asistente de voz.
Según Forbes, un grupo de unos 17 ladrones utilizaron en enero de 2020 un software de inteligencia artificial para clonar la voz del director de un banco de Emiratos Árabes y solicitar la transferencia de 35 millones de dólares (más de 30 millones de euros) a diversas cuentas.
Los investigadores han desarrollado una nueva técnica para proteger a los consumidores de los ataques de suplantación de voz.
VOID detecta ataques de suplantación de voz
El sistema Void (detección de vida de voz) se puede integrar en un teléfono inteligente o software de asistente de voz y funciona al identificar las diferencias en el poder espectral entre una voz humana en vivo y una voz reproducida a través de un altavoz, para detectar cuándo los piratas informáticos intentan falsificar un sistema.
Aunque la suplantación de voz es conocida como uno de los ataques más fáciles de realizar, ya que simplemente implica una grabación de la voz de la víctima, es increíblemente difícil de detectar porque la voz grabada tiene características similares a la voz en vivo de la víctima.
«Void es una tecnología innovadora que permite una detección más eficiente y precisa, lo que ayuda a evitar que los comandos de voz de las personas se utilicen de forma indebida”, dice Muhammad Ejaz Ahmed, científico de investigación en seguridad cibernética de Data61 de CSIRO.
A diferencia de las técnicas de suplantación de voz existentes que suelen utilizar modelos de aprendizaje profundo, Void se diseñó basándose en los conocimientos de los espectrogramas, una representación visual del espectro de frecuencias de una señal a medida que varía con el tiempo para detectar la «vida» de una voz.
Esta técnica proporciona un resultado muy preciso, detecta ataques ocho veces más rápido que los métodos de aprendizaje profundo y usa 153 veces menos memoria, lo que la convierte en una solución viable y liviana que podría incorporarse en dispositivos inteligentes.
¿Cómo proteger los datos al usar asistentes de voz?
La Dra. Adnene Guabtni, científica investigadora sénior de Data61 de CSIRO, comparte consejos para los consumidores sobre cómo proteger sus datos cuando usan asistentes de voz, según helpnetsecurity.com:
Cambie siempre la configuración de su asistente de voz para activarlo solo mediante una acción física, como presionar un botón.
En dispositivos móviles, asegúrese de que el asistente de voz solo pueda activarse cuando el dispositivo esté desbloqueado.
Apague todos los asistentes de voz domésticos antes de salir de su casa, para reducir el riesgo de suplantación de voz exitosa mientras está fuera de casa.
La suplantación de voz requiere que los piratas informáticos obtengan muestras de su voz.
Asegúrese de eliminar regularmente cualquier dato de voz que Google, Apple o Amazon almacenen.
Intente limitar el uso de asistentes de voz a comandos que no impliquen compras o autorizaciones en línea: los piratas informáticos o las personas que lo rodean pueden grabar sus comandos de pago y reproducirlos en una etapa posterior.