El deepfake: profundamente engañoso y altamente peligroso

  • URL copiada al portapapeles

Barthélémy MICHALON


Septiembre 08, 2019

Aunque todavía nos encontremos en las etapas preliminares, los avances en materia de “inteligencia artificial” no se desmienten. Esta evolución deja vislumbrar perspectivas vertiginosas en múltiples áreas, desde la salud hasta el ámbito militar, desde la operación automatizada de una multiplicidad de dispositivos hasta el monitoreo y la detección de todo tipo de fenómenos o de comportamientos.

La información es uno de estos numerosos campos que están siendo trastornados por la irrupción de esta tecnología, en especial con la aparición desde hace un par de años de los deepfakes; es decir, aquellos videos que están alterados por la inteligencia artificial, de manera que representan de forma cada vez más realista situaciones que nunca han pasado.

La parte inicial de este neologismo es una referencia al deeplearning, el principio de programación que permite a los programas “aprender” por sí solos, mientras que fake se pasa de comentarios. Lejos de los tanteos de sus inicios, esta tecnología produce ahora resultados cada vez más convincentes.

¿Un ejemplo de aplicación concreta de esta tecnología? Apenas la semana pasada, una empresa china puso a disposición del público la aplicación Zao: con subir tan sólo una foto de ellos, los usuarios pueden verse a ellos mismos en el papel del protagonista principal en extractos de películas famosas.

Este uso del deepfake es probablemente el más inocente y benigno que se pueda imaginar. En muchos otros casos, esta tecnología puede tener un profundo efecto desestabilizador.

En la era de la difusión masiva e instantánea de contenidos, por medio de las redes sociales y de los servicios de mensajería electrónica, esta perspectiva es especialmente alarmante. Hoy en día, la reputación de una persona puede quedar destruida en cuestión de minutos en caso de aparecer en un video que no la muestre en su mejor día, por decirlo así. Con el deepfake, cualquier individuo podría ser acusado, con “evidencias” aparentemente creíbles, de haber cometido tal o cual acto vergonzoso, o de haber pronunciado palabras escandalosas.

De por sí, la perspectiva de que la reputación de cualquier persona pueda derrumbarse en unos clics y segundos es bastante aterradora. En un plano colectivo, es decir para nosotros como comunidad humana organizada, las posibles aplicaciones no son menos preocupantes.

En un contexto en el que la desinformación es un flagelo cada vez más invasivo –tema que abordé en mi columna hace un par de meses– necesitamos poder contar con evidencias fidedignas de lo que pasó, y es muy común que dichas pruebas tomen la forma de un video. Cuando Trump niega haber hecho tal o cual declaración, una rápida investigación en línea permite despejar dudas al respecto y agregar una línea más a su largo listado de atentados a la verdad.

A la velocidad a la que avanza el “progreso”, ¿seguiremos siendo capaces de establecer los hechos, si más adelante cualquier video puede ser sospechoso de ser una creación de la inteligencia artificial?

Hace un año, unos académicos mostraron que eran capaces de generar imágenes de Obama pronunciando las palabras que ellos mismos habían escogido, logrando un resultado que, sin ser perfecto, resultaba bastante convincente. A inicios de este verano, circuló en Instagram un vídeo de Zuckerberg, en el que supuestamente confesaba sus intenciones malévolas frente a la cámara.

En nuestras sociedades cada vez más polarizadas, donde cada quien tiende a escoger y creer la versión de la realidad que le resulte más conveniente, ¿cómo podremos lidiar con la multiplicación de los videos, algunos auténticos y otros fabricados, que dan versiones tan diferentes de nuestros gobernantes, de nuestros ídolos y, más generalmente, de nuestro mundo?

Para mantener su cohesión, cualquier grupo humano necesita descansar en un consenso básico: ¿seguirá existiendo esta base común si cada quien puede con facilidad producir y difundir sus propios “hechos alternativos” que solamente tienen la apariencia de la autenticidad?

Frente a esta amenaza, el 5 de septiembre pasado varios grandes grupos tecnológicos, incluyendo los famosos Gafam (Google, Amazon, Facebook, Apple, Microsoft), así como universidades estadounidenses de primer orden lanzaron el deepfakedetectionchallenge, que promete un premio millonario a quien resulte capaz de desarrollar herramientas de detección de esta tecnología.

Del lado positivo, esta iniciativa muestra que estas organizaciones reconocen los riesgos ligados a esta tecnología. Pero desde una perspectiva más pesimista, también puede ser interpretada como una muestra de sus propias limitaciones: resulta preocupante que tengan que convocar a ingenieros externos a sus propios centros de investigación, para encontrar la forma de contrarrestarlo.

El reto planteado por los deepfakes se vuelve aún mayor ahora que las elecciones estadounidenses están cerca: los comicios de 2016 estuvieron marcados por la difusión de falsas noticias a gran escala, potencializadas por el poder de las redes sociales. Esperemos que el proceso de 2020 no represente la versión 2.0 de este triste antecedente.

* Profesor de tiempo completo del Tecnológico de Monterrey en Puebla, en la carrera de Relaciones Internacionales–[email protected]

  • URL copiada al portapapeles