El mundo de Instagram no es más bonito que el real por casualidad, sino porque la edición de foto es universal. Photoshop ya no es solo para profesionales, docenas de apps replican sus funciones y son fáciles de usar: “La gente las usa para cambiar el enfoque, encuadrar, puntos de luz, filtros, añadir o quitar objetos, darle apariencia vintage y, por supuesto, retocar la cara y el cuerpo”, dice María Bretón, jefa de Social en Groupm. “Todas las fotos pasan por un editor”, añade.
La realidad retocada de Instagram es solo un aperitivo de nuestro futuro. La inteligencia artificial permitirá crear realidad. Ya no solo podremos retocarla, podremos inventarla. En los últimos días se han anunciado novedades extraordinarias en la creación de fotos, textos y vídeos falsos. Son el prólogo de un mundo nuevo, donde la posición por defecto deberá ser no creer lo que vean tus ojos en una pantalla.
Nuestros ojos no sabrán distinguir si es falso un vídeo donde habla, por ejemplo, el presidente del Gobierno o si una pelea en el centro de la plaza del pueblo ocurrió o no. ¿Qué solución hay? ¿Igual que hay robots malos que crean falsificaciones podremos programar robots buenos que identifiquen la mentira? Es una esperanza, pero no es seguro. Es más seguro que pronto echaremos de menos a las simples fake news, que solo hay que contrastar.
El Instituto OpenAI, impulsado por Elon Musk, fue creado en 2015 para divulgar descubrimientos en inteligencia artificial. Ahora acaba de anunciar un modelo que sin entrenamiento es capaz de escribir textos a partir de un par de frases iniciales. Los investigadores no han querido publicar el código para complicar su réplica. Temen que se use para automatizar la creación de textos falsos que inunden internet, desde noticias falsas o posts de Facebook a reviews inventadas en TripAdvisor.
En diciembre la empresa Nvidia publicó los resultados de un trabajo donde creaban caras perfectas a partir de la combinación de rostros reales. En febrero, un ingeniero de Uber, Philip Wang, ha usado ese código para crear la web thispersondoesnotexist.com [estapersonanoexiste.com] que enseña cara tras cara perfectamente reales que no existen. “He decidido rascarme el bolsillo para llamar la atención sobre esta tecnología”, explica Wang en Facebook. A partir del repositorio de Nvidia se pueden crear también gatos, coches y habitaciones. Wang ha creado otra web de gatos (thiscatdoesnotexist.com) pero no están tan refinados y suelen salir pequeños engendros.
A pesar de los obstáculos, la expansión es ya incontrolable. Hay tutoriales en internet para crear vídeos falsos. Hace unos días apareció un vídeo impecable de la actriz Jennifer Lawrence en una rueda de prensa a la que le habían incrustado la cara del actor Steve Buscemi. A estos vídeos se les llama deepfakes, “profundos falsos”.
Habrá quien piense que esto ya existe. No. Ahora una política británica de extrema derecha puede escoger un vídeo de Alejandría (Egipto) de 2013, tuitearlo sin más contexto que los musulmanes son malos y acabar retuiteado por Donald Trump. Pero ese caso se corrigió rápido con una simple búsqueda en Google.
En la nueva era fake, las opciones se multiplicarán. Una figura pública grabada en una mala situación dirá que un enemigo ha creado ese “deepfake”. Esa negativa será de repente plausible. ¿Qué político pillado en una declaración o escena desafortunadas no clamará “deepfake”?
Hay ya un campo de investigación que se dedica precisamente a detectar vídeos falsos: el Análisis forense digital. “Hay una carrera armamentística entre hacer falsificaciones digitales y detectar esas falsificaciones”, dice Siwei Lyu, profesor de la Universidad de Albany (EE UU). Antes de 2017, este campo se centraba en Photoshop. Ahora los dos bandos aprovechan la inteligencia artificial.
No es la primera vez que habrá una guerra así: los virus y los antivirus siguen vigentes. Es un ejemplo, además, que prueba la eficacia del mal para sobrevivir. Hay toda una industria millonaria creada alrededor de los antivirus. Los fakes presentan un problema añadido respecto a los virus: su código no se publica. “Un grupo de hackers anónimos genera deepfakes y los detalles de su algoritmo quizá no estén disponibles como los de un ataque informático. Mientras, la tecnología de protección suele hacerse en la academia con papers públicos”, dice Lyu.
Los tramposos saben cómo les persiguen. Es como si un ladrón de bancos va a robar con un GPS donde ve cómo se mueven los policías y los policías dependen solo de su intuición. “De aquí en adelante, los generadores de deepfakes se entrenarán para engañar a los detectives”, dice Giorgio Patrini, fundador de Deeptrace, empresa dedicada a detectar vídeos falsos.
De momento, por tanto, no hay solución. Deeptrace se dedica a esto y pide más tiempo. “Ahora mismo no hay ninguna tecnología con un nivel de madurez suficiente para ser desplegada en el mundo real”, dice Patrini. Y es mejor que llegue cuanto antes, cree, mientras las máquinas malas aún están aprendiendo cómo inventar escenas. Es decir, no solo mezclar dos rostros o poner una cabeza en un cuerpo ajeno y hacerla hablar, sino crear algo que nunca existió. “Es mejor que tengamos alguna tecnología antes de que una persona pueda hacerse pasar por nosotros en una vídeollamada solo descargándose un software”, añade Patrini.
De momento la alternativa es educar a humanos: “Debemos empezar a detectar cuando se crean imágenes falsas de humanos. Nosotros hemos empezado entrenando a humanos. El próximo paso es entrenar inteligencia artificial”, dice Jevin West, profesor de la Universidad de Washington.
A quien le falte imaginación para pensar aplicaciones de estas tecnologías, un científico del laboratorio nacional de Los Alamos tiene este ejemplo: pide al algoritmo una foto de tu vecino antipático con una pistola en la mano, implántalo en el vídeo de la cámara de seguridad de una farmacia y haz que le encarcelen.
Patrini es de los científicos que creen que hay tiempo para que los robots nos defiendan. Battista Biggio, profesor de la Universidad de Cagliari (Italia), cree que la opción más segura es acostumbrarse: “Con imágenes, vídeos, audios el malhechor puede básicamente cambiar todo casi sin vínculos. Será muy difícil defenderse técnicamente de estas amenazas”, dice.
¿Su solución? Mejor acostumbrarnos a no creer lo que ven nuestros ojos. “Deberemos usar soluciones tecnológicas distintas para certificar la información desde el inicio, la fuente del dato”, dice Biggio. Aunque, como saben los autores de certificados de software, también son sencillos de falsificar.
La guerra de robots para la era fake ya ha empezado. Quizá los buenos resistan. Pero no es mala idea entrenar ya la mirada con un escepticismo total.
13 de mayo. Peluqueros dolorenses, convocados por el Rotary Club, participan de la iniciativa para confeccionar pelucas para quienes atraviesan tratamientos de quimioterapias. Qué más se puede donar.
13 de mayo. El macabro hallazgo ocurrió en una vivienda de Altos de San Lorenzo. La mujer, de 77 años, habría fallecido en 2021. Su hijo, de 47, confesó que nunca denunció la muerte y mantuvo el cuerpo oculto en una habitación.
13 de mayo. Ricardo Di Giorgio falleció tras 20 días de internación por las graves quemaduras sufridas. Su pareja, Edith Lamas, había muerto una semana antes. El incendio ocurrió en una casa del barrio 9 de Julio.
13 de mayo. Ezequiel González, futbolista de Juventud Unida, se arrodilló en mitad de cancha y le pidió casamiento a su novia Florencia antes del partido ante Social Mar de Ajó. Emoción, triunfo y punta del campeonato en un domingo inolvidable.
13 de mayo. El siniestro ocurrió esta mañana a la altura del kilómetro 132, en San Miguel del Monte. El colectivo viajaba desde Azul hacia Buenos Aires. Hay cuatro fallecidos y al menos 16 heridos.
12 de mayo. El cuerpo de una mujer de aproximadamente 30 años fue encontrado esta mañana en la playa de Pinamar, cerca del muelle. La Justicia investiga el caso como un posible femicidio, considerando una denuncia reciente por violencia de género.
12 de mayo. Vecinos de San Clemente advierten sobre publicaciones en redes sociales que ofrecen turnos médicos falsos en el Hospital Municipal. Las autoridades locales investigan el caso y recuerdan que los turnos se gestionan únicamente de forma presencial.
12 de mayo. Tras más de dos meses de búsqueda, la Justicia confirmó que los restos encontrados en la Base Naval Puerto Belgrano pertenecen a Delfina Hecker, la niña de un año que desapareció junto a su hermana Pilar durante el trágico temporal del 7 de marzo. Con este hallazgo, ascienden a 18 las víctimas fatales de la inundación en Bahía Blanca.