Ciberseguridad

¿Pueden los Deepfakes vencer a la autenticación por voz?

  • Home
  • Inteligencia Artificial

La Inteligencia artificial podría, en algunos casos, burlar los sistemas de autenticación. El descubrimiento de dos informáticos canadienses debería incitar a todo el mundo a mejorar estos programas informáticos antes de que los deepfakes de voz los inutilicen.

Publicado el 22 Sep 2023

Autenticación de voz.

Quienes siempre se han mostrado escépticos sobre la fiabilidad de la autenticación por voz tienen ahora una razón más para no cambiar de opinión. Parece, en efecto, que la inteligencia artificial se está dotando del poder de clonar voces humanas

Esto podría significar, para cualquier persona malintencionada, poder saltarse todos los controles. Sin duda, esto significa que los desarrolladores de software con esta función deben elevar al máximo el nivel de seguridad garantizado. 

El rumor ya no es único

La noticia de esta nueva vulnerabilidad no procede del alarmismo común relacionado con la IA, sino que se originó en el mundo de la investigación. Un par de informáticos de la Universidad de Waterloo, en Canadá, demostraron recientemente que, mediante el aprendizaje automático, resulta más fácil imitar la voz de alguien y engañar a los controles de estos sistemas de autenticación.

El descubrimiento, publicado en las actas del 44º Simposio del IEEE sobre Seguridad y Privacidad, se basa en un intenso trabajo científico sobre la manipulación de grabaciones de voz generadas por inteligencia artificial para crear muestras de “adversarios” muy eficaces.

Siempre se ha asumido que la voz de cada persona es única, debido a características físicas, como el tamaño y la forma del tracto vocal y la laringe, y a factores sociales, como el acento. Esto es lo que aprovechan los sistemas de autenticación de voz, que capturan estos matices en huellas vocales únicas y, en teoría, inimitables. 

Mejorar antes de que mejore la ciberdelincuencia

El plan parece sencillo pero para ponerlo en práctica se necesitó un uso masivo de IA generativa, mucho entrenamiento y numerosas voces reales y no reales. La pareja de informáticos entrenó su sistema con muestras de 107 discursos auténticos para identificar científicamente lo que hace que un discurso sea humano.

A continuación, pasaron a la fase de prueba del algoritmo, creando varias muestras adversarias para intentar engañar a los sistemas de autentificación del habla. El porcentaje de éxito alcanzado fue del 72%, pero con algunos programas más débiles, el porcentaje saltó al 99% tras solo seis intentos.

Prohibida su reproducción total o parcial.

¿Qué te ha parecido este artículo?

¡Su opinión es importante para nosotros!

Marta Abba

Licenciada en física y periodista, aplica el método científico para escribir sobre tecnología, medio ambiente e innovación. Tras una carrera que abarcó la información política y criminal, se apasionó por las start-ups, produciendo un especial mensual para una agencia de prensa. A partir de esta experiencia, pasó a ocuparse de temas relacionados con la innovación, la sostenibilidad, las nuevas tecnologías y las fintech con la misma curiosidad apasionada y genuina con la que, en los laboratorios universitarios, abordaba los experimentos científicos.

Temas principales

Especificaciones

A
Amenazas
I
IA
S
seguridad

Nota 1 de 4