La inteligencia artificial tiene un enorme potencial para mejorar servicios, agilizar procesos, apoyar diagnósticos, detectar fraudes y optimizar recursos. Bien utilizada, puede aportar eficiencia, precisión y capacidad de respuesta en ámbitos públicos y privados. Pero esa utilidad no debe ocultar un hecho cada vez más evidente: la misma tecnología que puede servir al bienestar colectivo también puede convertirse en un instrumento extraordinario de vigilancia, manipulación y concentración de poder.
Ese es el problema de fondo. La IA no solo automatiza tareas. También amplifica las capacidades de control que hasta ahora tenían límites materiales. Permite identificar a las personas mediante biometría, reconocimiento facial o voz; localizarlas por cámaras, móviles y redes sociales; inferir información sensible a partir de datos públicos; clasificarlas según criterios opacos; anticipar comportamientos mediante modelos predictivos; e intervenir en el espacio público filtrando, bloqueando o inundando de contenidos inservibles todos los canales. Nunca había sido tan fácil vigilar tanto, saber tanto y decidir tanto sobre tantas personas a la vez.
El abuso comienza cuando esa potencia tecnológica se pone al servicio de la autoridad sin controles democráticos reales. La primera forma de abuso es la automatización masiva de decisiones que afectan a los derechos y las libertades. Prohibir, señalar, excluir o someter a vigilancia intensiva deja de ser una acción excepcional y pasa a ser un procedimiento continuo, barato y escalable. Lo que antes exigía tiempo, personal y justificación, ahora puede ejecutarse de forma sistemática, rápida y casi invisible. El presidente de cualquier país, por no citar ninguno en concreto, puede forzar a las instituciones mediante reales decretos de dudosa legalidad para convertirse en el Gran Hermano de la ciudadanía.
La segunda vía de abuso es la fusión de datos. La IA permite cruzar información procedente de fuentes que, por sentido común, deberían permanecer separadas: geolocalización del móvil, historial de compras, movimientos bancarios, publicaciones en redes sociales, cámaras urbanas, registros administrativos y hábitos de navegación. Solo a alguien con intenciones oscuras le interesaría combinar todas estas fuentes específicas de la vida de las personas para crear perfiles de una precisión inquietante. Ya no se trata de saber qué hace una persona, sino de reconstruir con gran precisión cómo vive, con quién se relaciona, qué teme, qué consume y qué puede llegar a pensar… con más nivel de detalle del que la persona es consciente incluso sobre sí misma.
La tercera amenaza es la inferencia. Aunque ciertos datos estén legalmente protegidos, los algoritmos pueden inferirlos de forma indirecta. A partir de patrones de conducta, contactos, desplazamientos o lenguaje, la IA puede estimar afinidades ideológicas, creencias, vulnerabilidades emocionales, nivel económico o perfil de riesgo financiero o delictivo. Es decir, permite obtener, mediante cálculo, lo que no puede obtenerse legítimamente por declaración directa. Y esa capacidad abre la puerta a discriminaciones encubiertas mucho más difíciles de detectar y combatir.
Todo ello se presenta, además, bajo una falsa retórica tranquilizadora: seguridad, prevención, eficacia. La hipervigilancia se vende como protección. Ese es el caballo de Troya. Se normalizan más cámaras, más rastreo, más análisis predictivo y más recopilación de datos con la promesa de reducir amenazas. Pero la experiencia demuestra que las herramientas de control rara vez retroceden una vez implantadas. Lo excepcional se vuelve permanente, y lo que nació para combatir delitos graves puede terminar utilizándose para monitorizar la disidencia, condicionar conductas o reducir espacios de libertad.
A este peligro se suma otro no menos grave: la concentración del poder tecnológico en manos de muy pocas empresas globales. Cuando los sistemas más avanzados de IA dependen de cuatro o cinco actores con capacidad para procesar datos, imponer estándares y moldear el acceso al conocimiento, el margen para el abuso crece de forma alarmante. No solo por lo que esas empresas hagan, sino por la dependencia que generan en gobiernos y sociedades.
Y, por supuesto, está la capacidad de la IA para generar desinformación creíble a escala industrial. Bots, audios falsos, imágenes manipuladas, vídeos sintéticos y mensajes diseñados para simular consensos o intoxicar los debates públicos. La manipulación ya no necesita burdas falsificaciones: puede vestirse de verosimilitud técnica y circular con la apariencia de verdad. En ese terreno, muchos dirigentes encuentran una tentación evidente: usar la IA para reforzar su relato, generar noticias falsas en torno a una verdadera para deslegitimar esta última, reducir libertades y presentar decisiones políticas como si fueran neutrales porque "lo dice el algoritmo".
Por eso la respuesta no puede ser la resignación. Hay que exigir transparencia y responsabilidad, de modo que toda decisión automatizada con impacto social tenga responsables identificables y consecuencias si causa daño; exigir cualificación real a quienes regulan, compran o implantan estos sistemas; exigir sostenibilidad social, no solo ambiental, combatiendo la concentración de mercado que asfixia la pluralidad; y exigir que se persiga con firmeza a quienes utilizan mal la IA, en lugar de convertir la tecnología en una excusa inevitable. Porque cuando una herramienta permite identificar, localizar, perfilar, anticipar y condicionar a millones de personas, ya no están en juego solo la innovación o la economía: están en juego la libertad y el futuro del ser humano.

