El deepfake es un concepto que se está volviendo preocupante, especialmente por las noticias falsas que con ello se pueden difundir.
El nombre viene de la unión de Deep learning, que es un concepto de la Inteligencia Artificial, y fake, falso en inglés. Se trata de una técnica que permite editar vídeos falsos de personas que aparentemente son reales. Para ello se utilizan algoritmos de aprendizaje no supervisados y vídeos o imágenes ya existentes. El resultado es un vídeo muy realista, aunque ficticio.
Esta técnica se popularizó a partir de la publicación de una serie de vídeos falsos, , en el que aparecían varias actrices de Hollywood (Natalie Portman, Jessica Alba, Emma Watson…).
Pero no todos estos tipos de vídeos tienen finalidades maliciosas, en el mundo del cine también son utilizados. Por ejemplo, en una de las escenas de la película Roge One aparece una jovencísima Carrie Fisher cuando, en realidad, tenía 60 años durante el rodaje de esa película.
Algunos de estos vídeos se realizan simplemente por diversión, como los que podemos encontrar en Youtube con escenas de El Resplandor donde se ha sustituido a Jack Nicholson por Jim Carrey.
Deepfake: Principales riesgos
Aunque pueda parecer una técnica muy sofisticada, que sólo pueda realizarse por personas con amplios conocimientos, la realidad es que existen numerosos programas que simplifican bastante la tarea, de manera que no hay que ser un experto para realizar nuestro deepfake.
Teniendo en cuenta esto, no sería de extrañar que aparecieran vídeos de personajes relevantes como políticos, , periodistas influyentes… difundiendo cualquier tipo de noticia falsa. En este sentido, se podría decir que es una evolución de las fake news, con el añadido de que, al tratarse de imágenes, hace la noticia falsa más creíble. Como se suele decir, “ver para creer”.
Para demostrar el peligro de este tipo de vídeos manipulados, Jordan Peele, director de la película Get Out, publicó un vídeo suyo en el que suplantaba a Barack Obama donde, entre otras cosas, insultaba a Donald Trump.
Aunque es cierto que el 96% de los deepfake que se realizan son de carácter pornográfico, y la mayoría del restante 4% se utilizan en tono humorístico, hay que cuidarse de ese porcentaje residual que se puede utilizar para crear estado de alarma y generar problemas que no existen a nivel económico, empresarial...
Las consecuencias negativas también pueden aplicarse en círculos más pequeños, como el potencial riesgo para hacer bullying a un compañero de instituto, o para que las agencias de publicidad generen nuevos patrones de belleza, manipulando cualquier físico.
¿Cómo combatir los deepkake?
Con todo lo dicho, queda bastante claro que es muy difícil distinguir, sobre todo con los más elaborados, si un video es real o se trata de un deepfake.
Para frenar su avance, Estados Unidos comenzó a penalizar la distribución de imágenes y vídeos pornográficos falsos, pero hay muchos deepfake que no tienen contenido sexual, sino que son utilizados para ridiculizar a algún personaje público. En el estado de California se han firmado dos leyes que prohíben difundir vídeos manipulados para desacreditar a candidatos políticos durante los 60 días previos a unas elecciones, y otorgan a los californianos el derecho a demandar a todo aquel que difunda sin consentimiento deepfake pornográficos basados en su imagen.
Por su parte, en China este tipo de vídeos son ilegales desde el 1 de enero de 2020. En este país, todos los distribuidores de vídeo (plataformas de streaming, cadenas de televisión, agencias de publicidad…) deberán indicar claramente cuándo su contenido ha sido creado usando inteligencia artificial o realidad virtual. Para los ciudadanos queda completamente prohibido el publicar vídeos deepfake de creación propia.
Las redes sociales también están tomando cartas en el asunto. Twitter ha informado de que etiquetará y vetará la compartición de aquellos contenidos “sintéticos y manipulados que puedan desinformar o causar daño”. Para determinar si los tuits entran en esa categoría, Twitter tendrá en cuenta, por ejemplo, si se ha simulado a otra persona, como hacen los deepfakes, y podrá prohibir contenidos si se ha añadido o eliminado información visual o auditiva al vídeo original. Además valorarán el contexto y si ese contenido puede impactar en la seguridad pública.
Facebook también ha anunciado que retirará de su plataforma todo contenido que cumpla estos criterios:
- Si ha sido editado o sintetizado de una manera que no quede claro para una persona promedio, y que probablemente sirva para engañarle, y que piense que el protagonista del vídeo dijo palabras que en realidad no dijo.
- Si es producto de una inteligencia artificial o aprendizaje automático, fusionando, reemplazando o superponiendo contenido en un vídeo para que parezca que es auténtico.
Por nuestra parte, lo mejor que podemos hacer es no fiarnos de vídeos que se presentan como verídicos con personajes haciendo o diciendo algo que se salga de lo que habitualmente hacen o dicen. Puede que sean reales, o puede que sean un deepfake. En determinados casos es mejor pecar de desconfiados.