Análisis en profundidad

Cuáles son los peligros de los deepfakes

Los deepfakes desarrollados con inteligencia artificial están mejorando a un ritmo impactante, generando nuevos y letales peligros para la sociedad.

11 Ago 2022

Redacción Innovación Digital 360

Deepfakes

En los últimos tiempos, se comenzó a hablar del fenómeno de los deepfakes, ya que es algo que ha preocupado a las personas, sobre todo a las más conocidas y expuestas como los políticos o celebridades.

Por este motivo, resulta importante saber qué son exactamente los deepfakes y conocer cómo detectarlos para no caer en la trampa.

¿Qué significa deepfake?

Recientemente, han aparecido en las redes sociales videos de distintas personalidades que han sido “editados” casi a la perfección. Un ejemplo es el de la actriz Jennifer Lawrence con la cara del actor Steve Buscemi. Al mismo tiempo que Lawrence hablaba en un discurso frente a las cámaras, el rostro del actor imitaba sus expresiones. 

Este caso es un ejemplo de cómo las famosas “fake news” no se limitan únicamente al texto, sino que también se extienden a contenido multimedia conocido como deepfake.

El nombre proviene de “deep learning”, que se traduce como el aprendizaje profundo, una de las corrientes de la inteligencia artificial que consiste en el aprendizaje automático mediante esta tecnología que se utiliza con el afán de producir contenido.

En la mayor parte de los casos, el deepfake se basa en manipulaciones de un video en el que el software hace un análisis del material de origen y extrae una parte para luego insertarlo y adaptarlo en otro video. Lo más común es el intercambio de “caras”, llamados “deep video portraits”.

Dentro de los deepfakes, los videos se han convertido en la técnica más sofisticada para la producción de noticias falsas. Según estudios del impacto de las fake news en España, elaborado por la Universidad Complutense de Madrid, el 86% de la población es “víctima” de noticias falsas. Además, el 60% de los españoles cree que sabe detectarlas, pero en realidad solo un 14% lo diferencia, mientras que el 4% de la población crea y distribuye noticias falsas.

Sin embargo, no son el único medio para distribuir contenido falso. La tecnología deepfake permite la creación de fotos completamente ficticias desde cero. Esto también se extiende a los audios, ya que permite crear réplicas casi exactas de las voces de figuras públicas.

A pesar de esto, en una entrevista con el diario El País, el especialista en inteligencia artificial Jorge Muñoz aseguró que no es un proceso que pueda escalar más allá del mundo de las celebridades.

“El mayor problema de estas técnicas es que requieren una gran cantidad de datos para poder entrenarlas, por lo que hoy en día únicamente veremos contenidos así sobre personas famosas de las que se pueden encontrar millones de horas de vídeo de alta calidad en Internet”, explica.

Para qué sirven los deepfakes

Si bien este tipo de tecnología tiene grandes connotaciones negativas, se le puede dar un buen uso, como en la industria del entretenimiento. Uno de los casos más populares es el de la restauración de voz de personas que han quedado mudas o la recreación de personajes históricos. 

Por ejemplo, el museo de Dalí, en Estados Unidos, cuenta con un deepfake del pintor presentando su arte y tomándose selfies con los visitantes. Otro caso es el de la película Rogue One de la franquicia Star Wars en 2016, en la que trajeron nuevamente a la pantalla grande al actor Peter Cushin.

A su vez, los deepfakes también se utilizan en el ámbito de la investigación, ya que la tecnología generativa permite observar resultados en el campo de la medicina, a través del uso de escáneres cerebrales falsos basados en datos reales de los pacientes, convirtiéndose en una tecnología sumamente útil para detectar posibles tumores.

¿Cómo hago un deepfake?

En el caso del público en general, los deepfakes se pueden usar para fines recreativos, a través de distintas aplicaciones:

Reface

Anteriormente conocida como Doublicat, esta aplicación permite hacer recortes tanto de fotos como de videos, permitiéndonos hacer múltiples creaciones. Lo interesante es que permite hacer un intercambio de rostros o poner la imagen del usuario en distintos clips, pudiendo combinar caras, crear “memes” o añadir distintos tipos de filtros.

Además, esta aplicación cuenta con una gran variedad de contenido y opciones, por lo que el límite es nuestra imaginación. Cabe recordar que, en este tipo de aplicación, como en casi todas de las de su tipo, debemos habilitar el acceso a la cámara para que el sistema registre nuestras facciones y logre fusionar nuestra imagen con alguna de los contenidos ofrecidos.

Asimismo, es posible generar archivos de video o GIFs que se pueden compartir por plataformas como WhatsApp o Telegram. Dicha app está disponible tanto para dispositivos con iOS como para aquellos que cuenten con el sistema operativo Android.

Wombo

Es una aplicación basada en inteligencia artificial que permite darle movimiento a las selfies que nos tomamos. Alcanza con cargar una imagen del rostro o tomar una foto en el momento desde la aplicación para que luego el sistema procese, en pocos segundos, el contenido que tiene para ofrecer, permitiéndonos acceder a un pequeño video.

Por otra parte, el algoritmo de Wombo transforma fotos que son estáticas en videos sumamente expresivos, aunque los resultados pueden variar según la imagen que subamos. Es de suma importancia encuadrar bien el rostro o la cara retratada antes de presionar el botón para que comience el procesamiento del contenido. La aplicación se puede descargar tanto en dispositivos con Android como en iOS.

Deep Nostalgia

Esta plataforma se encuentra dentro del sitio Myheritage y permite animar fotos. En dicho caso, no es posible hacer “cantar” a las imágenes, sino simplemente hacer que muevan el rostro hacia los costados o crear algunos sencillos movimientos como guiños.

La herramienta también está pensada para fotos antiguas, ya que cuenta con un algoritmo que permite optimizar la calidad de esas imágenes. La función “Deep Nostalgia” utiliza varios modelos para animar los rostros. Cada video modelo consiste en una secuencia fija de movimientos y gestos.

Además, el clip modelo guía los movimientos en la animación para que se puedan ver los rostros de antepasados girar la cabeza, parpadear y sonreír, tal como lo explica su página oficial.

FacePlay

Existe una gran variedad de plantillas de video cortas para cambiar la cara del clip en tan solo un toque. El primer paso consiste en dejar que el sistema escanee el rostro y posteriormente seleccionar el video que se desea protagonizar.

El resto del trabajo queda en manos de la inteligencia artificial que permite crear un video con los rostros cambiados en pocos segundos. Se encuentra disponible para iOS y Android.

FaceJoy

Este editor de fotos y videos permite hacer un intercambio de rostros y ponerse en la piel de distintos personajes o celebridades, además de que deja utilizar las plantillas integradas. Las fusiones se encuentran muy bien logradas y se obtienen imágenes muy realistas.

A su vez, el usuario puede añadir cambios o editar para pulir los últimos retoques, hacer cambios de género o incorporar distintos tipos de filtros. La aplicación, de momento, solo se encuentra disponible para dispositivos con Android.

¿Qué tecnología se utiliza en un deepfake?

Actualmente, existen diferentes sistemas de aprendizaje automático que permiten llevar adelante proyectos o aplicaciones como las antes mencionadas. La tecnología que ganó más popularidad vinculada a los deepfakes es la de redes generativas antagónicas. 

Este tipo de tecnología consta de dos redes neuronales que compiten entre ellas para obtener un resultado cada vez más realista. Hay una red que es la generadora y produce imágenes y otra que es la “discriminada” y se encarga de adivinar, al ver esas imágenes, si son reales porque vienen del set de datos de entrenamiento o si son falsas, es decir, producidas por el generador. Esa competencia entre las redes permite ir optimizando el resultado y lograr imágenes o videos cada vez más realistas.

En pocas palabras, los deepfakes funcionan a través de los modelos de redes neuronales generativas conocidas como “deep learning. Básicamente, los algoritmos aprenden a crear imágenes de personas reales o ficticias tras procesar una base de datos de imágenes de ejemplo.

Al entrenarse con imágenes de una persona concreta, pueden crear videos muy realistas de ella. De una forma bastante parecida se recrea la voz, con el potencial que esto genera para usos tanto positivos como negativos, ya que se pueden diseñar videos totalmente falsos creíbles de personas haciendo o diciendo algo inapropiado.

¿Cómo detectar un deepfake?

Con el avance de la tecnología, se hace cada vez más difícil poder detectar lo que es real de lo que no lo es. Sin embargo, existen algunas características que nos pueden ayudar a detectar un deepfake. 

Una de las características que suelen delatar a un deepfake es el poco parpadeo de los protagonistas. Estadísticamente, las personas solemos parpadear una vez cada 2-8 segundos y cada parpadeo dura hasta 4 décimas de segundo. En el caso de los deepfakes, el número es significativamente menor, ya que estos algoritmos no pueden parpadear a la misma velocidad que una persona real.

Además, los ojos nos revelan otros datos importantes para detectar un deepfake. Por ejemplo, Investigadores de la Universidad de Buffalo en Estados Unidos sostienen que mirar a los ojos de la persona en la imagen o video del que se está dudando puede ser la mejor opción. Según sostienen dichos investigadores, cuentan con un algoritmo capaz de detectar los retratos falsos con un alto grado de eficacia (94%), analizando simplemente el reflejo de los ojos.

El motivo principal por el que se fijan en los ojos es que las inteligencias artificiales no son buenas creando reflejos oculares precisos, ya que por lo general los crean sin sentido o reflejando elementos diferentes en cada ojo.

De acuerdo al estudio, la córnea es casi como una semiesfera perfecta y sumamente reflectante, lo que hace que, en principio, cualquier cosa que emita luz en frente del retrato debería reflejarse en el ojo. Claramente, la inteligencia artificial no emite ninguna luz al crear un retrato, por lo que debe inventarse esos reflejos y, de momento, no lo hace demasiado bien.

La herramienta desarrollada por los investigadores de la Universidad de Buffalo analizó imágenes falsas de “This Person Does Not Exist” e imágenes reales de Flick Face HQ. Luego hizo un mapeo de cada una de las caras y analizó en detalle cada uno de los ojos, así como la luz reflejada en su interior. Con esto, asignó una puntuación de similitud entre ambos ojos de cada cara y, cuanto mayor era dicha puntuación, mayor la probabilidad de que sea real.

Según los autores, ambos ojos deben tener patrones reflectantes similares, ya que están viendo lo mismo. Los investigadores recalcan que, si bien no es algo que nos fijemos a diario cuando miramos a alguien o visualicemos fotografías de personas, es algo que puede sernos de una gran ayuda para detectar imágenes falsas.

No obstante, los expertos recalcan que la herramienta aún no es perfecta y ese 6% de margen de error sigue siendo bastante elevado, además de tener en cuenta que, así como la tecnología pudo crear rostros perfectos, podría hacerlo con los reflejos oculares.

A pesar de esto, no es el único aspecto a considerar para detectar un deepfake. Otro de los aspectos a tener en cuenta es la cara y el cuello, ya que debemos observar si el cuerpo se ajusta a la cara o la postura coincide con la expresión facial. Esto se debe a que la mayoría de los deepfakes son principalmente sustituciones faciales, ya que aplicar cambios en el cuerpo requiere de un esfuerzo significativo. En el caso de que el cuerpo de la persona a la que se le aplicó un rostro tenga otras características que no coinciden, como por ejemplo tatuajes, un color de piel diferente, menor o mayor masa muscular, entre otras posibilidades, estaríamos ante una falsificación.

Además, aunque este tipo de tecnología ya es bastante común, los procesos de aprendizaje para hacer una falsificación de calidad están muy trabajados, por lo que la mayoría de los deepfakes que se comparte tiene muy poca duración, se trata de clips cortos.

Esto nos lleva a pensar que si debemos verificar cierto contenido inverosímil y no existe una razón fundamentada por la que la grabación sea tan breve, entonces debemos plantearnos si no se trata de un deepfake.

Por otra parte, es de suma importancia buscar la fuente de la grabación, es decir, a la persona que primeramente compartió la imagen o video. Por lo general, esto suele ayudar a averiguar el contexto de la publicación y corroborar si el material de origen fue más detallado.

Cabe recordar que no solo la imagen puede dejar expuesto a un deepfake, sino también su sonido. Esto se debe a que habitualmente el software se limita a cambiar la imagen, pero no hace un ajuste al audio, por lo que, si el sonido no se encuentra presente o no coincide con la imagen, puede ser un claro indicio de falsificación.

Otro aspecto a tener en cuenta son los detalles. Al verificar el contenido del video, también es útil dejar que se reproduzca a la mitad de la velocidad. Así, por ejemplo, podremos notar pequeñas discrepancias en el fondo de una persona o cambios repentinos en la imagen que se notan enseguida.

Finalmente, debemos tener en cuenta el interior de la boca. El software que crea deepfakes ha sido capaz de transferir caras bastante bien, pero el principal problema se encuentra en los detalles. Un claro ejemplo es el de la aplicación de desenfoque en el interior de la boca, dándonos una señal de que se trata de un montaje o una imagen falsa. Esto se debe a que la inteligencia artificial todavía está luchando para poder hacer una correcta interpretación de los dientes, la lengua y la cavidad bucal cuando se habla.

Los peligros de los deepfakes en la actualidad  

Como mencionábamos anteriormente, los deepfakes tanto en videos como en audios suelen ser muy sencillos de identificar. Para algunos expertos, en estos días, se debe al contexto propio del video y de la persona que aparece en este o por la técnica utilizada, ya que la mayoría de los recursos no están perfeccionados, sobre todo en aquellos deepfakes que se hacen con aplicaciones móviles.

Sin embargo, con el desarrollo y mejora tanto en su tecnología como en la inteligencia artificial, se hará cada vez más difícil poder identificar una falsificación.

A esto, se le debe sumar que los ciberdelincuentes muestran cada vez un interés mayor en poder hacerse pasar por otra persona, para, utilizando esta tecnología, poder estafar. Esto convierte a los deepfakes en un potencial riesgo para la seguridad y ciberseguridad no solo de las personas como individuos, sino de cualquier organización.

De hecho, el propio FBI, en un detallado informe que publicó en el 2021, destacaba a los deepfakes como un potencial riesgo para la seguridad cibernética empresarial en todo el mundo, pudiendo generar estragos tanto en la reputación de las compañías como a nivel financiero, al menos en el corto plazo, es decir, hasta poder desmentir o demostrar la falsedad del video o audio.

Uno de los principales riesgos de los deepfakes es que cada vez es menos costoso hacerlos y es sumamente sencillo crearlos para una persona con algunos conocimientos en computación (dejando de lado las aplicaciones de celulares) gracias a la enorme disponibilidad de distintos softwares para ello. Además, siempre existe la posibilidad de contratar servicios para crear y usar deepfakes con fines maliciosos.

Otros de los principales problemas de los deepfakes son los fines políticos, como el propagar noticias falsas o atacar directamente la reputación o dignidad de personajes públicos. A su vez, los deepfakes sirven para la difusión de imágenes o videos pornográficos falsos de celebridades, ya sea con la intención de dañar la imagen de estas o de generar miles de visitas.

Esta tecnología tiene tantos usos, sobre todo aquellos con una gran connotación negativa y en la mayoría de los casos incurriendo en un delito, pero con la capacidad de obtener mucho dinero de forma rápida, que no son pocos los ciberdelincuentes que ven una nueva forma de vulnerar la ciberseguridad de las distintas compañías.

Los objetivos maliciosos de los deepfakes

En pocas palabras, podríamos resumir el accionar o repercusión de los deepfakes en los siguientes aspectos:

Generar una sensación de acoso en la víctima

Los deepfakes, sobre todo aquellos de videos o imágenes sexuales falsas de otras personas, buscan, en muchos casos, no solo generar angustia y humillación, sino que las víctimas se sientan acosadas constantemente.

Dañar la reputación de una persona

Este suele ser el típico caso de un deepfake usado con fines políticos. Estos se han vuelto cada vez más virales en los últimos años alrededor del mundo. De todas formas, para Soubhik Barari, experto e investigador en Ciencias Políticas de la Universidad de Harvard, los deepfakes no parecen tener un efecto superior al resto de la desinformación existente.

Los shallowfakes, falsificaciones superficiales, utilizan técnicas sumamente sencillas, como atribuir un video impactante a un lugar o tiempo distinto al real, cortar secuencias para alterar sus sentidos, hacer recortes “convenientes” para desinformar o emplear actores. “Fabricar un vídeo tradicional puede ser más efectivo que hacer un deepfake”, explica el experto

Sembrar incertidumbre

La utilización del deepfake ha generado que casi cualquier imagen o video sea puesto en duda automáticamente. “Hay una presión creciente sobre periodistas y defensores de derechos humanos para que demuestren que aportan material auténtico. Rápidamente se usa el argumento del deepfake para decir que ningún vídeo es demostrablemente cierto”, sostiene Sam Gregory, director de Witness, una organización que usa vídeos para defender los derechos humanos. “La retórica alrededor de esta tecnología es tan peligrosa como la tecnología en sí”, detalla.

Los deepfakes continúan avanzando a pasos agigantados, y, en un futuro, será cada vez más difícil detectarlos, por lo que sus peligros están en aumento y hay que prepararse para no caer en la trampa de sus creadores.

@RESERVADOS TODOS LOS DERECHOS
I
Redacción Innovación Digital 360

Nota 1 de 5