Los deepfakes se han convertido en un recurso muy importante para la cinematografía, pero toda una pesadilla para la prensa. Además de combatir las fakenews, los medios se enfrentan a esta tecnología pionera.
A pesar de que es una tecnología que ya lleva con nosotros unos años estos últimos días ha sido el tema central de muchas charlas. Hablamos de los deepfakes, un recurso que sirve para manipular imágenes y que parezcan totalmente reales.
Esta tecnología, que usa la Inteligencia Artificial (IA) para modificar la cara de los actores, saltó al ideario público en 2019 con la aparición de vídeos pornográficos protagonizados por famosos de EEUU en los cuales se sustituía la cara de las actrices o actores pornográficos por las de personajes famosos.
Lo llamativo de su origen es que su creador, que utilizaba el alias “Deepfake”, sólo necesitó su ordenador personal y el algoritmo de aprendizaje automático conocido como “red generativa Antagónica (RGAs)”, GANs en inglés, para crear esta tecnología.
¿Quién fue el creador?
Su desarrollo fue posible gracias al azar y a la cabezonería de Ian Goodfellow. Era el año 2014, un grupo de jóvenes discutían acerca de si la IA podría crear algo nuevo, de “tener imaginación”. Esa misma noche Ian Goodfellow, uno de los chicos, escribió un código: -El Código-, basándose en las investigaciones publicadas en las década de los 90 por Jüger Schmindhuber acerca de la curiosidad artificial, así como el aprendizaje de Turing basado en la capacidad de una máquina de exhibir un comportamiento similar al de un ser humano.
La RGAs, una clase de aprendizaje automático
Los RGAs son algoritmos informáticos que mejoran automáticamente a través de la experiencia. Se basa en una red neuronal artificial, que compiten entre sí en un juego de suma cero (las pérdidas de uno se equilibran con las ganancias de otro.)
Red neuronal discriminatoria frente a la red generativa, esa es la clave. Funciona de la siguiente manera: La red generativa va produciendo imágenes, textos sonidos, etc, de lo que queramos crear, como afirma Goodfellow: “Si empezamos con un dataset de imágenes de perros, al comienzo el generador ofrecerá imágenes al azar, que parecerán ruido estático, como el de una TV analógica vieja», ver enlace
Es este el momento de la otra red, la discriminadora, que analiza lo producido por la red generadora y determina si se ajusta a lo que está buscando. Goodfellow lo explica de la siguiente manera. «Al entrenarlas, el generador logra ofrecer imágenes que engañan al discriminador. Así, al principio, el generador hará bien los colores. Hará imágenes verdes y marrones porque la mayoría de las imágenes son de perros marrones en pasto verde y el generador será engañado por un rato.
Y luego el discriminador aprenderá a buscar las formas de perros, y entonces el generador deberá hacer bien las formas para engañar al discriminador. Es un proceso donde cada una de las redes va mejorando y aprende de su oponente».
La aplicación de esta tecnología abarca un gran número de campos y aplicaciones.
Uno de los más recientes es en la investigación contra el Coronavirus, en el cual se crean moléculas artificialmente que se enfrentan a las molécula del Sars Cov-2, con el objetivo de ver qué molécula puede hacerle frente.
O el generador de rostros DCGAN desarrollado por Nvidia, que crea rostros artificiales que son imposibles de diferenciar de los reales. ver enlace
Todos los rostros que aparecen en la siguiente imagen son artificiales, ninguna de las imágenes corresponde con una persona real. Ya lo avisaba Platón “El mundo sensible es un mundo cambiante, en constante devenir, material y corruptible”.
Deepfakes en el cine
En el ámbito cinematográfico esta tecnología ofrece un gran abanico de posibilidades. Como la capacidad de realizar un doblaje perfecto al adaptar los movimientos faciales de los actores a la pronunciación del país de destino. O la posibilidad de reemplazar la cara de un actor por otra para, por ejemplo, envejecer o aumentar la edad de alguien, o retratar a un actor fallecido.
Y así lo ha llevado a cabo Alex de la Iglesia en “30 monedas”, su nueva serie emitida por HBO. Que utiliza más de 250 planos con DeepFakes creados por Alejandro Pérez Blanco, profesional de efectos especiales. Mediante esta técnica se ha podido rejuvenecer a los actores sin perder ningún detalle de las interpretaciones.
Disney Research, junto a la colaboración de la Escuela Politécnica Federal de Zúrich (ETH Zurich), han sido los potenciadores de esta tecnología. Ellos fueron los responsables del desarrollo de videos DeepFakes en 1024×1024 píxeles, lo que les permitió llevarlo a la gran pantalla sin perder calidad de imageny abaratando el coste de esta técnica, inconveniente que se encontraron al realizar Star Wars: Rogue One y The Rise of the Skywalker.
Los peligros del Deepfakes
Desde sus inicios, como herramienta para sustituir rostros de actrices de Hollywood por los de actrices del porno, y la consecutiva penalización por parte de los tribunales estadounidenses, se han producido un aumento de la falsificación de declaraciones, entrevistas y videos. En su mayoría estos videos tienen un cariz satírico, pero algunos políticos e instituciones recalcan el temor de que se puede llevar a cabo una manipulación de desastrosas consecuencias.
Imaginemos que nos encontramos en el periodo previo a unas elecciones y se manipulan unas imágenes de uno de los candidatos haciendo algo que perjudique su imagen, pongamos de ejemplo la trama del primer capítulo de The Black Mirror, The National Anthem donde el presidente se acuesta con un cerdo. Esto es real se puede llevar a cabo de manera sencilla y su distribución es igual de sencilla. Podemos imaginar las consecuencias de ese video y el perjuicio que ocasionaría.
Para observar la capacidad de esta técnica estos son alguno de los ejemplos: Jim Carrey (The Mask) «suplanta» a Jack Nicholson en The Shining.
O el video en el que la Reina Isabel en la televisión inglesa felicita la navidad.
Desde Inteligencia Nacional en Estados Unidos, la Europol y diversos gigantes tecnológicos como Facebook están trabajando para desarrollar tecnología capaz de detectarlo. En junio del año pasado Facebook presentó 35.000 algoritmos, el mejor de ellos solo llegó a una precisión del 65%. La tecnología IA, las deepfakes y otras muchas más técnicas son herramientas que según la usemos podemos crear arte o destruir consensos y acuerdos sociales. Está en nuestras manos el uso que le demos.
Los comentarios están cerrados.