El anuncio es sencillo. Un autobús se detiene en el tráfico después de chocar con un carrito de frutas, una joven pasajera mira por la ventana a un joven apuesto en un descapotable. Ella se baja del autobús, se sube al coche y el hombre la lleva como a un chófer mientras ella come una chocolatina.
La joven es Audrey Hepburn.
Esto tiene implicaciones enormemente significativas en nuestra percepción del mundo en el que vivimos, de las que nadie habla realmente. Pero volveremos a Audrey más tarde.
No siempre lo parece, pero los humanos somos confiados de forma innata.
Ya sea un desarrollo evolutivo diseñado para facilitar el funcionamiento como grupo social, o un vestigio de miles de generaciones de pensamiento religioso, en el fondo nuestra posición automática es que la mayoría de la gente –la mayor parte del tiempo– está diciendo la verdad.
Se trata de una inclinación natural que los tiranos han comprendido –y aprovechado– durante siglos.
Pero por mucha confianza que depositemos de forma innata en los demás, hay algo en lo que todos confiamos más: nuestros propios ojos.
Somos criaturas visuales, y una vez que alguien ha visto algo (o cree haber visto algo) es casi imposible convencerlo de que no lo ha hecho.
Y, hoy en día, los aspirantes a tiranos también pueden aprovechar eso.
Desafortunadamente, la confianza necesaria y primordial que nuestro cerebro tiene en nuestros ojos va por detrás de la capacidad de la tecnología para confundirlos.
Deep Faking es, como la mayoría de nosotros sabemos, un truco de edición de vídeo que puede reemplazar sin problemas una cara por otra. No es especialmente difícil ni caro. Todo lo que se necesita es que el sustituto tenga un parecido superficial pasajero con el sustituido, un buen número de fotografías que muestren diferentes posiciones faciales y el software informático adecuado.
Los “shitposters” de 4chan lo hacen desde la comodidad de sus habitaciones para reírse, reemplazando los rostros de estrellas porno por los de actrices, celebridades, políticos y Nicolas Cage.
En pocas palabras, por la propia naturaleza de lo que es, la tecnología deep fake debe hacer que cada video que muestre cualquier rostro sea hasta cierto punto sospechoso.
El potencial de falsificación no se limita al vídeo: falsificar audio es cada vez más fácil cada año. Con suficientes muestras de voz, los sintetizadores y clonadores de voz pueden hacer que cualquiera diga cualquier cosa. Esta tecnología mejora cada vez más y puede imitar la entonación perfectamente.
La Inteligencia Artificial en general puede dibujar, en segundos, cualquier imagen que quieras describir. Puede generar rostros fotorrealistas que podrían usarse como “víctimas” y “fotos policiales”, o proyectar cualquier drama falso con actores falsos.
Las herramientas en línea gratuitas ya pueden hacer todo lo anterior de manera aceptable. Obviamente, los gobiernos y las megacorporaciones tendrían acceso a herramientas avanzadas más caras que probablemente serían casi imposibles de detectar.
Las películas de Hollywood utilizan CGI para resucitar a actores muertos, agregar caras modernas a viejas imágenes de noticias, quemar ciudades hasta los cimientos o hacer que personas de 60 años parezcan tener 20 años de nuevo.
Volvamos a Audrey Hepburn comiendo una barrita de chocolate y examinémosla de nuevo.
Ahora bien, se podría argumentar que este anuncio en realidad muestra los límites de esta tecnología; después de todo, tiene una calidad de valle asombrosa y nadie que vio ese anuncio pensó ni por un solo segundo que en realidad era Audrey Hepburn.
Bueno, en primer lugar, ese anuncio ya tiene once años. Es lo que podía hacer un pequeño comercial de dulces hace más de una década. La tecnología ha mejorado desde entonces.
En segundo lugar, toda esa información es contextual.
En 2013, cuando se emitió el anuncio, tu cerebro habría sabido que no debía creer lo que estaba viendo porque estabas viendo un anuncio de televisión. Tu cerebro también habría sabido que lo que estabas viendo era imposible, ya que Audrey Hepburn habría tenido 84 años… si no hubiera estado ya muy, muy muerta.
Tu cerebro analítico puede filtrar cuando tiene información y contexto adicionales. Ve los hilos cuando sabes que están ahí.
Pero imagina que no fuera Audrey Hepburn, imagina que no fuera un anuncio.
Digamos que son imágenes que se emiten en las noticias, y en lugar de un anuncio de dulces en tecnicolor, es un video granulado de un teléfono celular que muestra a la víctima A del ataque terrorista X. Son imágenes de CCTV que muestran al político B recibiendo un soborno a Y. Es el acusado C transmitiendo en vivo su juicio por delito. Z.
La cara parece real, el fondo parece real, la voz suena real...
…pero potencialmente nada de eso es real en absoluto.
¿Pero cuánta gente procesa esto? ¿Cuántos de nosotros hemos reajustado nuestros cerebros para que "sí, pero ¿es real el vídeo?" sea la primera pregunta que nos hagamos?
Aún así, la reacción automática de la mayoría de la gente cuando afirman que "eso es falso" es burlarse sin pensárselo dos veces.
Eso es pensar a la antigua.
Ninguna de la información publicada anteriormente es impactante o nueva, y no estoy sugiriendo que lo sea. La tecnología es ampliamente conocida y parte de ella tiene más de una década; lo que se está quedando atrás es la incorporación a nuestro meta mental. Su uso aún no es una consideración automática y debería serlo.
En pocas palabras: no te puedes fiar de las imágenes ni de los vídeos. Jamás. Es una lección que todos debemos aprender.
Por lo tanto, sabemos que las herramientas de rápido desarrollo hacen que las noticias falsas o los eventos organizados altamente convincentes no sólo sean posibles sino también fáciles. Para nuestro punto final quiero centrarme más en la repetida lección de la historia que la gente se niega a aprender:
Ellos. Ya. Falsifican. Todo.
Bueno, no literalmente todo, pero sí mucho. Una gran cantidad. Mucho más de lo que la mayoría de la gente comprende.
Es un ejemplo menor, pero en este clip de la CNN, dos reporteras fingen estar a kilómetros de distancia haciendo una entrevista vía satélite, cuando un autobús que pasa de fondo demuestra que, de hecho, están en el mismo aparcamiento y no están separadas por más de quince metros.
Un recordatorio de hasta qué punto los medios de comunicación que consumimos a diario son irreales, de una forma u otra.
Se podría decir que la “realidad”, tal como la entendemos, casi nunca se ve en los medios. Las portadas de revistas están retocadas con Photoshop. Las entrevistas están organizadas en escena. Los “escándalos” pueden ser en gran medida trucos de relaciones públicas. La "telerrealidad" está llena de actores a sueldo en conflicto simulado. Cada escenario es un artificio, cada emoción una actuación
Internet está plagado de reporteros meteorológicos que se apoyan en vientos huracanados que no existen, o reman en canoas en “inundaciones” de quince centímetros de profundidad.
Mire este vídeo, supuestamente grabado en Egipto durante la Primavera Árabe:
https://off-guardian.org/wp-content/medialibrary/Egypt-fake-protests.webm?x17958
¿Qué están haciendo? Parecen fingir protestar y luego se quedan congelados para posar para las fotografías, algunos con heridas falsas. Obviamente no es real, pero cuando sólo se les presentan solo las imágenes fijas o el video, ¿alguna vez se le habría pasado por la cabeza?
En Siria, Occidente incluso falsificó una organización benéfica entera. Se dijo que los “Cascos Blancos” eran una organización orgánica de sirios dedicados a salvar vidas. No eran nada de eso. Eran una operación psicológica financiada por la OTAN y muchos de sus vídeos de “rescate” estaban claramente montados. Incluso participaron en el viral “maniquí challenge” viral (un mal movimiento de relaciones públicas).
“Nayirah”, la enfermera kuwaití que testificó haber visto “bebés expulsados de las incubadoras” antes de la primera Guerra del Golfo, nunca existió realmente; era el papel de la hija del embajador kuwaití.
En su libro Bought Journalists , el fallecido Udo Ulfkotte relata haber estado en Irak durante la guerra y haber visto a periodistas echar gasolina en tanques y automóviles quemados, a kilómetros de la línea del frente, para poder prenderles fuego y fingir que estaban informando desde una zona de guerra.
¿Recuerdas el infame artículo de Rolling Stone “Una violación en el campus”? 9000 palabras que detallan una violación en grupo que nunca sucedió.
A los pocos días de que Rusia lanzara su “operación militar especial” en Ucrania, tanto los principales medios de comunicación como las redes sociales se vieron inundados de vídeos falsos y mal atribuidos que vendían historias inventadas.
Desde el mismo momento de su creación, Covid fue una avalancha de falsificaciones tanto macro como micro.
Cuando se inició en China, nos llegaron fotografías y vídeos absurdamente falsos de personas supuestamente desplomadas en las calles a causa de la enfermedad.
La avalancha de personas que se encontraban "tumbadas de espaldas en la calle con una mascarilla" se había extendido a Italia en marzo de 2020, pero luego desapareció rápidamente y nunca más se supo de ella.
En el punto álgido del pánico, un usuario de Twitter llamado TraceyZ afirmó que dos enfermeras del Hospital Swansea habían muerto de Covid y tres más estaban en la UCI. La afirmación se volvió viral antes de que el propio hospital la contradijera.
No sólo no existían las cinco enfermeras enfermas, sino que TraceyZ no existía.
La cuenta que llevaba ese nombre fue eliminada poco después.
Recuerde este vídeo que tomó un transeúnte de “limpiadores” en el metro de Londres fingiendo limpiar.
O este vídeo desde el interior de un hospital español, donde los dos “médicos” en primer plano están equipados como extras de Outbreak, mientras una persona desconcertada al fondo observa con nada más que una camiseta.
Recordemos la gran cantidad de personas que se comprometieron con el “teatro político” pretendiendo usar máscaras, como este tipo.
Kit Knightly