Deepfake AI: Nuestro presente distópico

Artículo de referencia: Hechos sobre la IA falsa.

De todos los poderes espantosos de Internet, su capacidad para engañar a los desprevenidos puede ser la más aterradora. Clickbait, fotos photoshopeadas y noticias falsas son algunos de los peores delincuentes, pero en los últimos años también se ha visto el surgimiento de una nueva herramienta potencialmente peligrosa conocida como inteligencia artificial (IA) profunda.

El término deepfake se refiere a la falsificación de vídeo y audio generado por ordenador que es difícil de distinguir de un contenido genuino e inalterado. Es filmar lo que Photoshop es para las imágenes.

¿Cómo funciona Deepfake AI?

La herramienta se basa en lo que se conoce como redes generativas adversarias (GAN), una técnica inventada en 2014 por Ian Goodfellow, un estudiante de doctorado que ahora trabaja en Apple, reportó Popular Mechanics.

El algoritmo GAN incluye dos IAs separadas, una que genera contenido – digamos, fotos de personas – y un adversario que intenta adivinar si las imágenes son reales o falsas, según Vox. La IA generadora comienza casi sin tener idea de cómo se ven las personas, lo que significa que su pareja puede distinguir fácilmente las fotos verdaderas de las falsas. Pero con el tiempo, cada tipo de IA mejora progresivamente, y eventualmente la IA generadora comienza a producir contenido que parece perfectamente real.

Ejemplos de Deepfake

Los GAN son herramientas impresionantes y no siempre se utilizan con fines maliciosos. En 2018, una pintura generada por GAN que imitaba el estilo holandés del «Old Master» de artistas como el Rembrandt van Rijn del siglo XVII, fue vendida en la casa de subastas Christies por un precio increíble de 432.500 dólares.

Pero cuando las GAN reciben formación sobre archivos de vídeo y audio, pueden producir material realmente perturbador. En 2017, investigadores de la Universidad de Washington en Seattle entrenaron a una IA para que cambiara un video del ex presidente Barack Obama, de modo que sus labios se movieran de acuerdo con las palabras de un discurso totalmente diferente. El trabajo fue publicado en la revista ACM Transactions on Graphics (TOG).

Ese mismo año, las falsificaciones profundas alcanzaron una prominencia generalizada, principalmente a través de un usuario de Reddit que se hacía llamarfalsificaciones profundas, reportó Vice. La técnica de la GAN se utilizaba a menudo para colocar los rostros de celebridades famosas, como Gal Gadot, Maisie Williams y Taylor Swift, en los cuerpos de actrices de cine pornográfico.

Otras GAN han aprendido a tomar una sola imagen de una persona y a crear fotos o vídeos alternativos bastante realistas de esa persona. En 2019, una falsificación profunda podría generar películas espeluznantes pero realistas de la Mona Lisa hablando, moviéndose y sonriendo en diferentes posiciones.

Deepfakes también puede alterar el contenido de audio. Como reportó The Verge a principios de este año, la técnica puede empalmar nuevas palabras en un video de una persona que habla, haciendo que parezca que dijo algo que nunca tuvo la intención de decir.

La facilidad con la que se puede desplegar la nueva herramienta tiene ramificaciones potencialmente aterradoras. Si alguien, en cualquier lugar, puede hacer películas realistas que muestren a una celebridad o a un político hablando, moviéndose y diciendo palabras que nunca dijeron, los espectadores se ven obligados a desconfiar más del contenido de Internet. A modo de ejemplo, basta con escuchar al presidente Obama advirtiendo contra un futuro distópico «efímero» en este vídeo de Buzzfeed, creado a partir del deepfake del cineasta Jordan Peele.

Recursos adicionales:

  • Descubra cómo puede ayudar a Google con su investigación de detección de falsificaciones profundas.
  • Mira: «Deepfake Videos Are Getting Terrifyingly Real», de NOVA PBS.
  • Lea más sobre la IA falsa y las posibles soluciones legales de The Brookings Institution.

También te puede interesar