Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Ver revista digital
20-09-2022, 2:00:00 PM

¿Qué es deepfake? Te decimos cómo se hacen, para qué sirven y cómo detectar estos videos ‘falsos’

Todo lo que debes saber de los deepfake, la tecnología de Inteligencia Artificial para crear videos que pueden engañar a cualquiera.

Deepfake
Deepfake © EuropaPress

Seguro has visto o escuchado hablar de los videos deepfake, ya que su popularidad y calidad va en aumento. Se trata de una tecnología basada en Inteligencia Artificial (IA) para crear imágenes o videos falsos, pero que parecen totalmente reales. Consiste en superponer el rostro de una persona en el de otra, para simular una situación que jamás pasó, lo que puede ser tanto útil y divertido, como peligroso. Aquí te explicamos qué son, cómo se hacen y lo que debes saber para que no te engañen.

El concepto ‘deepfake’ proviene de los términos ‘Deep Learning’ (aprendizaje profundo), una rama de la IA, y fake (falso o falsificación), explica la empresa de ciberseguridad Avast. Es una técnica de manipulación de imágenes, video y audio mediante software de Inteligencia Artificial, haciendo que el material alterado luzca auténtico.   

Los llamados deep video portraits o intercambios de caras, son la forma más común de deepfake, pero existen otros tipos. El más conocido es el deepface, que consiste en crear fotos totalmente ficticias y usarlas para generar animaciones o videos. El otro es el deepvoice, que es falsificar la voz de una persona para suplantarla en un audio. Con frecuencia, ambas técnicas se utilizan en conjunto para generar material audiovisual muy realista y convincente, pero completamente artificial.

Esta tecnología dio sus primeros pasos a fines de la década de 1990. La gran innovación ocurrió en 2014, cuando el científico informático Ian Goodfellow, autor del libro Deep Learning, desarrolló las redes adversarias generativas (GAN) para la creación de deepfakes.

LAS PLÁTICAS CON LOS LÍDERES Y EMPRENDEDORES DE AMÉRICA

Su popularidad estalló a partir de 2017. Un usuario de Reddit insertó los rostros de actrices como Emma Watson y Natalie Portman, en escenas de películas para adultos. También se difundió material erótico falso de Gal Gadot, Taylor Swift, Scarlett Johansson y otras celebridades internacionales.

¿Cómo se crea un deepfake?

Las ‘falsificaciones profundas’ se pueden generar directamente mediante softwares u ordenadores especializados, prácticamente sin necesidad de intervención humana. Esta tecnología se basa en Machine Learning (aprendizaje automático) y algoritmos de Deep Learning, para extraer parte de un video, (como la cara de una persona), e insertarlo y adaptarlo en otro, falsificando sus gestos y aportando el mayor realismo posible.

Aunque en términos técnicos suene complicado, hacer un video de este tipo puede ser bastante sencillo con las dos principales tecnologías desarrolladas para ello.

Deepfake programs

Se trata de software especializado en inteligencia artificial y edición audiovisual. Primero, un algoritmo codificador de IA ejecuta miles de tomas de los rostros que se quieren intercambiar, analiza las similitudes entre ambos, las reduce a características compartidas y comprime cada imagen.

Después, un segundo algoritmo decodificador recupera la información de las caras en las imágenes comprimidas. Es necesario usar un decodificador diferente para procesar cada una y, para intercambiar los rostros, se introducen las imágenes en el decodificador contrario. Éste se encarga de reconstruir la cara y expresiones de una persona, y colocarla sobre la de otra. El resultado es un video que parece verídico.

Redes adversarias generativas (GAN)

Otra forma de hacer deepfakes es utilizando las denominadas Generative Adversarial Networks (GAN), o redes adversarias generativas, en español. Estas funcionan mediante redes neuronales de inteligencia artificial que procesan cientos o miles de imágenes de un rostro u objeto. Así, aprenden los patrones que encuentran en ellas para luego reproducirlos, creando nuevas imágenes del mismo.

Las GAN confrontan dos algoritmos de IA. El primero, conocido como ‘generador’, crea la imagen falsa, y el segundo, llamado ‘discriminador’ la agrega a una secuencia de imágenes reales. Hay que repetir varias veces el proceso para que el rendimiento de los algoritmos mejore y logren producir un archivo de video completamente realista.

En ambos casos, la creación de un deepfake requiere una inmensa cantidad de fotos y/o videos de las caras que se pretenden intercambiar. Por eso la mayoría son de celebridades, políticos y famosos empresarios, pero se puede hacer con cualquier persona, mientras se puedan obtener suficientes imágenes, por ejemplo, de sus redes sociales.

Hasta hace un par de años, estas técnicas solo estaban al alcance de unos pocos, pues requieren de equipos muy potentes. Además, hacer un buen deepfake resulta muy costoso y solo las grandes productoras podían asumir el gasto. Sin embargo, ahora existen aplicaciones y herramientas online que pueden hacer videos ‘falsos’ de calidad aceptable. Una de las más populares y polémicas es FaceApp, pero existen otras como FacePlay y Reface, que puedes descargar en Android o iOS.

Usos positivos de las ‘falsificaciones profundas

Es importante destacar con qué intención se crea un deepfake, ya que su alto nivel de verosimilitud y credibilidad tiene potencial tanto benéfico como malintencionado. “Los rostros generados sintéticamente no sólo son fotorrealistas, sino que son casi indistinguibles de los reales y se consideran más fiables”, señala un estudio publicado en la revista Proceedings of the National Academy of Sciences en febrero de 2022.

Por sí misma, esta tecnología es inofensiva, y su buen uso puede impactar de forma positiva en distintas áreas. Es muy utilizada en cine, televisión y marketing para ‘traer a la vida’ a celebridades que han fallecido e incluirlos en producciones actuales.

Por ejemplo, en la película de 2016 Rogue One: Una historia de Star Wars, ‘revivieron’ al actor Peter Cushin. También suplantaron el rostro de Carrie Fisher por el de su versión más joven como la Princesa Leia.

En marzo de 2022, pudimos ver de nuevo al ‘Chavo del 8’ platicando con el actor Eugenio Derbez en un comercial. La cara y voz del personaje, creado por el fallecido Roberto Gómez Bolaños, fueron reconstruidos mediante deepfake para interactuar como si estuvieran cara a cara.

En la educación, se puede usar para para animar galerías y museos, o dar vida a personajes históricos para enriquecer la experiencia didáctica. Como muestra, el Museo Dalí en Florida, Estados Unidos, ‘dio vida’ digitalmente al legendario artista Salvador Dalí, para saludar y tomarse selfies con los visitantes.

En medicina y salud, ayuda a restaurar las voces de personas que han perdido el habla por alguna enfermedad. También funciona para crear escáneres virtuales basados en datos de pacientes reales, con el fin de detectar posibles tumores o cáncer. Además, sirve para probar drogas simuladas sobre órganos recreados, afectados por enfermedades hipotéticas.

Por supuesto, también tiene usos negativos

Como todo gran avance tecnológico (o superpoder), muchos han encontrado formas poco o nada éticas de aprovechar el deepfake. Ya que cualquier persona podría crear un archivo falso de otra, se puede usar para dañar la imagen de una persona o desacreditarla, y como un medio para el ciberacoso o el bullying escolar.

Según un análisis del Crime Science Journal, los deepfakes con propósito criminal son el delito basado en inteligencia artificial con mayor poder de daño o lucro, y el más difícil de derrotar.

Entre los usos maliciosos más comunes están la creación y propagación de noticias falsas y suplantar la identidad para cometer fraudes o estafas, así como fabricar ‘pruebas’ en procesos legales. También se ha utilizado para falsificar secuestros y acceder a sistemas de seguridad, burlando el reconocimiento biométrico mediante la imitación de voz o imágenes.

Uno de los primeros y más sonados fraudes mediante deepvoice se dio a conocer en 2019, según relata The Wall Street Journal. El CEO de una compañía de Reino Unido transfirió 220,000 euros a un supuesto proveedor, ya que unos ciberdelincuentes imitaron con software la voz de su jefe alemán para que le diera la orden.

Las grandes empresas de tecnología han implementado medidas para detectarlos, eliminarlos o impedir que se distribuyan con fines perjudiciales. En enero de 2020, Facebook prohibió los deepfakes, excepto los que fueran claramente parodias. Unos meses antes creó un fondo de 10 millones de dólares para desarrollar herramientas que detecten imágenes falsas.

En septiembre del mismo año, Microsoft presentó su ‘Video Authenticator’ para identificar falsificaciones audiovisuales. También apareció Sensity, la primera compañía de inteligencia sobre amenazas visuales, que combina monitoreo y detección algorítmica de deepfakes.

¿Cómo reconocer un deepfake?

Conforme esta técnica avanza y se perfecciona, es más difícil reconocer qué es auténtico y qué no, pues los resultados son cada vez más realistas. Muchas veces solo un especialista en imágenes digitales o un software puede detectarlos. Pero hay elementos que los delatan:

  • Fallas y detalles sutiles. Existen imperfecciones que no se han logrado corregir, como bordes borrosos, piel extremadamente lisa que luce artificial, la posición exacta de la cabeza y movimientos entrecortados o antinaturales. Se aconseja reproducir el video a baja velocidad, para detectar diferencias en las expresiones faciales, la iluminación, el fondo o cambios repentinos en la imagen.
  • Cara y cuello. Los deepfakes suelen centrarse en el rostro, ya que sustituir un cuerpo completo es mucho más complicado. Fíjate si el cuerpo de la persona coincide con su complexión, color de piel y señas particulares, como lunares o tatuajes.
  • El parpadeo. En un video falso, la persona parpadea mucho menos que alguien real. Se calcula que los humanos parpadeamos cada 2 a 8 segundos, y éstos duran 1 a 4 décimas de segundo. Los algoritmos aún no consiguen replicar esta velocidad.
  • El interior de la boca. Los algoritmos de Deep Learning todavía no son capaces de copiar con exactitud los dientes, la lengua y la cavidad bucal, dejando un cierto desenfoque en la zona.
  • El sonido. Aunque se combine con deepvoice, generalmente el audio no se ajusta a la imagen. Se puede percibir una mala sincronización entre el movimiento de labios y lo que supuestamente dice el personaje.
  • Son clips cortos. La gran mayoría de los deepfakes duran solo unos segundos, ya que los procesos para crearlos requieren mucho trabajo son costosos.

Además, hay que usar el sentido común: ¿la fuente que compartió el video es fiable?, ¿en qué contexto, medio o red social se publicó? Piénsalo.

Cómo hacer deepfake Deepfake Deepfake app inteligencia artificial
autor Adicta a ver series y películas, hacer (un poco de) ejercicio y cambiar mi color de cabello. También soy periodista, con más de 16 años de experiencia y dedicada 100% a medios digitales desde 2011. He sido desde reportera y community manager, hasta editora en varios medios y agencias. Mis áreas de expertise son tan diversas como contrastantes: espectáculos, viajes, estilo de vida, salud, negocios y finanzas. Ahora estoy enfocada en el ecosistema emprendedor, criptomonedas, NFTs, metaversos y la prometedora industria del cannabis en México.