Hasta ahora, una imagen en movimiento ha sido sinónimo de prueba irrefutable. Una fotografía borrosa o con signos de haber sido retocada puede generar dudas, pero un vídeo nítido resulta incontestable. Ahora esa certeza se está desmoronando. La expansión de los deepfakes, vídeos y audios generados o alterados por inteligencia artificial que imitan a la perfección rostros, voces y gestos, introduce una grieta profunda en la manera en que las sociedades entienden la verdad.
El primer riesgo es evidente y conocido por todos: la posibilidad de fabricar escenas que jamás han ocurrido. Un dirigente político que confiesa delitos, un ejecutivo que admite prácticas ilegales, un testimonio inventado de una guerra lejana. Las aplicaciones van desde la difamación individual hasta la manipulación masiva. Sin embargo, el efecto más inquietante de los deepfakes no es la mentira en sí, sino la duda permanente que instala en la mente de las personas, incluso respecto de los hechos reales.
En un entorno saturado de simulaciones verosímiles generadas por IA, cada noticia extraordinaria puede ser recibida con la misma pregunta: "¿Y si es un deepfake?". De este modo, la sospecha deja de ser una herramienta saludable de verificación y se convierte en un reflejo que lo contamina todo. Basta con que un implicado niegue la autenticidad de unas imágenes para diluir su impacto. La carga de la prueba se desplaza y el concepto mismo de "evidencia" resulta inútil.
Periodismo en riesgo
El periodismo, cuya tarea básica es comprobar los hechos y ponerlos en contexto, se ve particularmente expuesto. Las redacciones deben aprender a trabajar en un escenario en el que el material audiovisual puede ser impecable desde el punto de vista técnico y, al mismo tiempo, completamente falso. Las herramientas de detección avanzan, pero la carrera entre quienes producen falsificaciones y quienes tratan de desenmascararlas es constante. El resultado para la ciudadanía es una mezcla de mensajes incompatibles que alimentan la desconfianza generalizada, más que la adhesión a una mentira concreta.
Sin embargo, las consecuencias de los deepfakes van muchísimo más allá del ámbito mediático. Cualquier comunidad necesita apoyarse en un mínimo de hechos compartidos para deliberar y tomar decisiones. Si cualquier registro audiovisual puede ponerse en duda como producto de una IA, se erosiona la memoria común. Archivos, bases de datos y testimonios visuales se vuelven objeto de sospecha y las generaciones futuras podrían encontrar un pasado fragmentado en versiones incompatibles.
El incendio de la biblioteca de Alejandría
Si en el pasado, el gran incendio que destruyó una parte importante del saber de la humanidad en la biblioteca de Alejandría supuso un revés sin igual en su época, los deepfakes son la bomba atómica de exterminio de la información en la actualidad: no necesitan destruir toda la información distribuida por todo el mundo; solo, sembrar la duda de que esa información sea cierta o inventada para que toda ella resulte inútil y nos lleve de nuevo a la era de las cavernas.
La defensa contra los deepfakes
Para evitar este escenario exagerado pero ilustrativo de hacia dónde vamos, se exploran varias vías de defensa: sistemas de autenticación que certifiquen el origen de las imágenes, protocolos de verificación reforzados en medios e instituciones, educación en pensamiento crítico y cultura digital. Son pasos necesarios, pero su eficacia dependerá de algo más difícil de medir: la confianza entre ciudadanos, periodistas, científicos y poderes públicos. Y en "confianza", casi todos estos actores sacan un "muy deficiente", aunque ya no se ponga esta nota para no traumatizar.
El desafío de los deepfakes no se reduce a un problema técnico ni a un asunto regulatorio. Afecta al suelo común sobre el que se construyen las sociedades complejas: la posibilidad de ponerse de acuerdo, aunque sea de manera imperfecta, sobre lo que realmente ocurre y debe resolverse. Si esa base se resquebraja y cada grupo solo reconoce como válidas las pruebas generadas por su propio entorno, la verdad quedará sumergida en un océano de dudas. Por el momento, parece que solo las sanguijuelas oportunistas están haciendo negocio de esta debilidad social y que nadie se está tomando el problema en serio, ni desde las instituciones ni desde las grandes corporaciones ni desde un punto de vista individual como ciudadano. Por favor, acuérdese de lo poco que le queda para vivir en una caverna y chocar piedras para hacer fuego la próxima vez que vea un meme o un reel hecho con IA.

