Varios policías antidisturbios de Nueva York derriban al expresidente Donald Trump. El presidente ruso, Vladímir Putin, viste un uniforme gris tras los barrotes de una celda de hormigón poco iluminada.
Las imágenes sensacionalistas y altamente detalladas han inundado Twitter y otras plataformas de redes sociales en los últimos días, en medio de noticias de que Trump enfrenta posibles cargos penales y de que la Corte Penal Internacional ha emitido una orden de arresto contra Putin, pero ninguna es remotamente real.
Esas imágenes —y las decenas de variaciones que ensucian las redes sociales— se produjeron mediante generadores de imágenes cada vez más sofisticados y ampliamente accesibles impulsados por Inteligencia Artificial (IA).
Los expertos en información falsa advierten que estas escenas son precursoras de una nueva realidad: oleadas de fotos y videos trucados que inundan las redes sociales de la mano de los principales acontecimientos informativos y que enturbian aún más los límites entre la realidad y la ficción en momentos cruciales para la sociedad.
“Esto hace más ruido durante las crisis. También aumenta el nivel de escepticismo”, afirma Jevin West, profesor de la Universidad de Washington en Seattle y que se especializa en estudiar la difusión de información engañosa. “Empiezas a perder la confianza en el sistema y en la información que recibes”.
Aunque no es nueva la capacidad de manipular fotos y crear imágenes falsas, las herramientas de generación de imágenes de IA de Midjourney, DALL-E y otras firmas se han vuelto más fáciles de usar. Pueden generar rápidamente a gran escala imágenes realistas, con todo y fondos detallados, con poco más que un simple mensaje de texto del usuario.
Algunas de las imágenes recientes han sido impulsadas por el lanzamiento este mes de una nueva versión del modelo de síntesis de texto a imagen de Midjourney, que puede, entre otras cosas, producir imágenes convincentes que imitan el estilo de las fotos de las agencias de noticias.
En un hilo de Twitter muy difundido, Eliot Higgins, fundador de Bellingcat —un colectivo de periodismo de investigación con sede en Holanda—, utilizó la última versión de la herramienta para conseguir decenas de imágenes dramáticas de la detención ficticia de Trump.
Las imágenes, que se han compartido y que han recibido “me gusta” decenas de miles de veces, mostraban a varios policías uniformados deteniendo al multimillonario republicano y derribándolo violentamente al pavimento.
Higgins, quien también estuvo detrás de un conjunto de imágenes de Putin siendo arrestado, juzgado y luego encarcelado, dice que las publicó sin malas intenciones. Incluso declaró claramente en su hilo de Twitter que las imágenes fueron generadas por IA.
Sin embargo, las imágenes fueron suficientes para bloquearlo del servidor de Midjourney, según Higgins. El laboratorio de investigación independiente con sede en San Francisco no respondió a los correos electrónicos en busca de comentarios.
“La imagen de la detención de Trump en realidad sólo mostraba casualmente lo bueno y lo malo que era Midjourney a la hora de representar escenas reales”, escribió Higgins en un correo electrónico. “Las imágenes empezaron a formar una especie de narrativa a medida que yo daba indicaciones a Midjourney, así que las encadené en forma de narración y decidí terminar la historia”.
Subrayó que las imágenes están lejos de ser perfectas: en algunas se ve a Trump —curiosamente— usando un cinturón de policía. En otros, los rostros y las manos están claramente distorsionados.
Sin embargo, no es suficiente que usuarios como Higgins indiquen claramente en sus publicaciones que las imágenes son generadas por IA y que sólo las crearon para fines de entretenimiento, advierte Shirin Anlen, tecnóloga de medios en Witness, una organización de derechos humanos con sede en Nueva York que se enfoca en la evidencia visual.
Con demasiada frecuencia, las imágenes se comparten rápidamente sin ese contexto crucial, agrega. De hecho, una publicación de Instagram que compartió algunas de las imágenes de Higgins sobre Trump como si fueran genuinas obtuvo más de 79.000 “me gusta”.
“Sólo estás viendo una imagen, y una vez que ves algo, no puedes dejar de verlo”, señala Anlen.
En otro ejemplo reciente, los usuarios de las redes sociales compartieron una imagen creada con IA que supuestamente mostraba a Putin arrodillado y besando la mano del presidente chino Xi Jinping. La imagen, que circuló esta semana mientras el presidente ruso le daba la bienvenida a Xi en el Kremlin, se convirtió rápidamente en un meme burdo.
Se desconoce quién creó la imagen o qué herramienta empleó, pero algunas pistas revelan que era una falsificación. Las cabezas y los zapatos de los dos líderes estaban ligeramente distorsionados, por ejemplo, y el interior de la habitación no coincidía con el sitio donde tuvo lugar la reunión real.
Dado que las imágenes artificiales son cada vez más difíciles de distinguir de las reales, la mejor manera de combatir la desinformación visual es una mejor concienciación y educación de la gente, recalcan los expertos.
“Es tan fácil y barato crear estas imágenes que deberíamos hacer todo lo posible para que la gente sea consciente de lo avanzada que va esta tecnología”, afirma West.
Higgins sugiere que las empresas de redes sociales podrían centrarse en desarrollar tecnología capaz de detectar imágenes generadas por IA e integrarlas en sus plataformas para advertir a los usuarios.
Twitter tiene una política que prohíbe los “contenidos artificiales, manipulados o descontextualizados” que puedan causar confusión o daño. En algunos tuits se adjuntaron anotaciones de Community Notes, el proyecto de verificación de información de Twitter, para incluir una nota de contexto de que las imágenes de Trump habían sido generadas por Inteligencia Artificial.
Cuando se contactó a la compañía el jueves en busca de comentarios, esta —iónicamente— contestó en un correo electrónico con una respuesta automática.
Meta, la empresa matriz de Facebook e Instagram, se negó a hacer comentarios. Sin embargo, su programa de verificación de hechos de terceros —del cual la AP es participante— etiquetó como “falsas” o “faltas de contexto” algunas de las imágenes creadas digitalmente de Trump.
Arthur Holland Michel, miembro del Carnegie Council for Ethics in International Affairs de Nueva York, un centro especializado en tecnologías emergentes, teme que el mundo no esté preparado para el inminente diluvio digital.
Michel se pregunta cómo se regularán los videos deepfake que involucran a personas comunes, por ejemplo, imágenes falsas creadas con el fin de dañar a una expareja o un colega.
“Desde una perspectiva política, no estoy seguro de que estemos preparados para hacer frente a esta magnitud de desinformación en todos los niveles de la sociedad”, escribió Michel en un correo electrónico. “Mi impresión es que va a hacer falta un avance tecnológico inédito para atajar esto definitivamente”.
Comments