Por primera vez en la historia del reporte anual de amenazas de la comunidad de inteligencia de EE.UU., la inteligencia artificial aparece por encima del terrorismo, los carteles y los conflictos regionales. No como una nota al pie. Como amenaza prioritaria. Davos, por su parte, dejó de debatir si la IA transformará el mundo para enfocarse en cómo sobrevivir esa transformación. Ese cambio de lenguaje institucional es la noticia real. No la tecnología. El vocabulario.
Cuando las instituciones que definen qué es peligroso cambian su lista de prioridades, no están describiendo la realidad. Están construyéndola.
El giro tiene una ironía difícil de ignorar. Las mismas herramientas que EE.UU. desarrolló para mantener ventaja estratégica global ahora aparecen en su propio reporte como vector de vulnerabilidad. China tiene un plan declarado para desplazarlo como líder global en IA para 2030, y ese plan no es secreto: lo publicaron. El cazador empieza a reconocer que algo más grande lo rastrea. Esto no es nuevo. Las herramientas del dominio siempre encuentran nuevos dueños. La pólvora fue invención china. La imprenta también. El internet nació en laboratorios militares norteamericanos. Cada herramienta transformadora viaja. Y cuando llega a manos distintas, los que la inventaron rara vez controlan lo que pasa después.
La militarización de la IA no es un riesgo futuro. Ya ocurrió. Sistemas de identificación de blancos, toma de decisiones en tiempo real en zonas de conflicto, análisis predictivo de movimientos enemigos. No es ciencia ficción. Es infraestructura operativa en conflictos que están ocurriendo ahora. La tecnología diseñada con propósito defensivo se convierte en herramienta ofensiva antes de que alguien pueda articular una objeción formal. Esa tendencia no requiere malicia. Requiere urgencia, presupuesto y ausencia de freno. Esos tres ingredientes siempre están disponibles cuando hay guerra.
Pero lo que más llama la atención del reporte no es lo que dice. Es lo que omitió.
Durante años, el cambio climático ocupó el primer lugar en los reportes de amenazas de estas mismas instituciones. Amenaza existencial, decían. Irreversible. Urgente. Este año desapareció sin explicación. Sin nota aclaratoria. Sin transición. Solo dejó de estar. El punto no es si el cambio climático es real o no; esa discusión es otra. El punto es que una amenaza presentada como la más grave de la historia de la humanidad se retiró del relato institucional cuando cambió la administración que firma esos documentos. Eso confirma algo que investigadores llevan décadas documentando: los relatos de amenaza no se construyen con datos. Se construyen con conveniencia política. Y quien controla el relato de amenaza controla el presupuesto, la agenda legislativa y la opinión pública.
Esto importa porque no es la primera vez. La tendencia es consistente a lo largo de décadas: enemigo externo, amenaza interna, crisis sanitaria, colapso climático, hegemonía tecnológica. Cada ciclo genera su propia estructura de respuesta institucional, su propio aparato de dominio, su propia justificación para concentrar poder. La amenaza cambia. La estructura que se construye alrededor de ella permanece.
El mismo reporte menciona a Venezuela y Colombia. No como actores con agenda propia, con poblaciones, con historia, con intereses legítimos. Los menciona como territorios de disputa entre EE.UU., China, Rusia e Irán por minerales y posicionamiento estratégico. Litio, coltán, rutas logísticas. El lenguaje es el de un tablero de ajedrez donde las piezas no tienen nombre. Desde México, estas dinámicas se leen diferente. No como análisis geopolítico abstracto, sino como descripción de vecinos, de regiones con historia conocida, de regularidades que se repiten en este continente. El mismo esquema colonial con tecnología nueva. Las potencias cambian. El proceso no.
Ni Davos ni la CIA hacen la pregunta que más importa: ¿por qué los sistemas diseñados para proteger reproducen exactamente las dinámicas de control que dicen combatir? No es una pregunta retórica. Es un problema de diseño. Cuando el objetivo declarado de un sistema es la seguridad, pero su estructura operativa requiere concentración de información, de decisión y de fuerza, el resultado no depende de las intenciones de quienes lo operan. Depende del diseño. Y el diseño, en todos los casos documentados, favorece a quien ya tiene poder.
Hay algo que los registros históricos confirman con consistencia: cada vez que una herramienta transformadora llega al mundo, la primera pregunta que se responde no es cómo beneficia a la mayoría, sino quién la controla primero. La escritura cuneiforme sirvió para registrar deudas antes que poemas. La imprenta fue herramienta de propaganda antes que de emancipación. El internet fue red militar antes que espacio público. La IA no rompe esa constante. La sigue con una velocidad que no habíamos visto antes.
Doce mil años de estructuras que prometieron seguridad y entregaron concentración de poder. No como argumento pesimista. Como diagnóstico necesario para entender qué tipo de alternativas tienen alguna posibilidad real de funcionar. Los registros históricos también muestran que en los márgenes, en las grietas entre estructuras dominantes, han existido formas de organización que distribuyeron el poder de manera diferente. No perfectas. No permanentes. Pero reales. Verificables.
La IA como amenaza de seguridad nacional no es el final de la historia. Es el capítulo más reciente de una historia muy larga. Y los capítulos anteriores sugieren que la pregunta no es si la herramienta es peligrosa. La pregunta es quién decide cómo se usa, quién vigila a quien vigila, y si alguna vez vamos a diseñar estructuras donde esa pregunta tenga una respuesta que no sea siempre la misma.
Las piedras no mienten, pero los historiadores a veces sí.
Fuentes:
1. Annual Threat Assessment of the U.S. Intelligence Community — Office of the Director of National Intelligence (ediciones 2023-2025)
2. World Economic Forum Global Risks Report 2025 — Foro Económico Mundial, Davos
3. China's Next Generation Artificial Intelligence Development Plan — Consejo de Estado de la República Popular China, 2017
4. Autonomous Weapons and the Laws of War — International Committee of the Red Cross (ICRC), reportes 2023-2024
5. The Age of Surveillance Capitalism — Shoshana Zuboff, Harvard Business School Press, 2019