La versión oficial parece limpia. Anthropic desarrolló un modelo tan potente que las instituciones tuvieron que intervenir. El Pentágono lo catalogó como riesgo de cadena de suministro. La Casa Blanca lo retiró de los sistemas federales. Trump lo llamó woke y pidió su eliminación. El relato tiene villano corporativo y gobierno que protege la seguridad nacional. Los noventa días siguientes desmontan esa historia por completo.

La posición inicial del Pentágono tenía razones concretas. Anthropic rechazó permitir que sus modelos sirvieran para todos los propósitos legales, incluyendo armas autónomas y vigilancia masiva doméstica. Desde la perspectiva militar, esa restricción es inaceptable. La cadena de mando no puede depender de los valores éticos de una empresa privada. Es un problema real de gobernanza, no paranoia institucional.

Los datos sobre Mythos Preview son verificables. El Instituto de Seguridad de IA del Reino Unido confirmó que el modelo completa simulaciones de ataque corporativo de treinta y dos pasos —tareas que toman veinte horas a expertos humanos— en tres de cada diez intentos. En tareas de nivel experto logra éxito el setenta y tres por ciento de las veces. Esa capacidad modifica los cálculos estratégicos de cualquier agencia que protege infraestructura crítica.

El mismo día que el CTO del Pentágono declaró que Anthropic seguía siendo un riesgo, el departamento anunció acuerdos con siete empresas para desplegar inteligencia artificial en redes clasificadas: SpaceX, OpenAI, Google, Microsoft, Nvidia, Amazon Web Services y Reflection. Anthropic no aparece en la lista. Mientras tanto, la NSA emplea Mythos Preview para escanear vulnerabilidades. El brazo derecho judicializa. El brazo izquierdo despliega.

Una fuente dentro de la administración Trump lo resumió con una crudeza que ningún comunicado oficial admitiría: todas las agencias de inteligencia usan Anthropic. Cada agencia excepto Guerra lo quiere porque Anthropic evita contribuir a matar personas, y la postura de Guerra es que no le digan qué hacer. Pero si trabajas en el Departamento de Energía, los chinos atacando la red eléctrica importan más que esos reparos. Entonces buscas Anthropic.

Lo que rara vez aparece en la cobertura es la pregunta sobre exclusividad. Los expertos de NCC Group que evaluaron el modelo fueron directos: esta capacidad será replicada por otras inteligencias artificiales en meses. El Council on Foreign Relations señaló que el código de modelos avanzados se filtra con frecuencia y que las principales empresas muestran una tendencia clara a replicar capacidades rivales, típicamente en meses. Peter Swire, ex asesor de Clinton y Obama, lo describió como un éxito de relaciones públicas ante todo.

La capacidad es real. El salto cualitativo respecto a lo anterior es más modesto de lo que sugieren los comunicados. Esto importa porque transforma la lógica de negociación. La Casa Blanca convoca ahora a empresas de varios sectores para preparar una posible acción ejecutiva que revierta la directiva del OMB y reintegre a Anthropic. Fuentes internas describen el esfuerzo como salvar las apariencias y traerlos de vuelta. La empresa que Trump llamó woke negocia su regreso desde una posición de fuerza que no tenía hace sesenta días. La línea roja sobre armas autónomas sigue sin resolverse. Lo que cambió fue quién necesita más a quién.

Vi esta dinámica en distintos contextos. Cuando una herramienta se vuelve indispensable, las instituciones que intentan regularla pierden capacidad real de aplicación. Los incentivos se realinean y las amenazas pierden credibilidad. El Pentágono llegó a ese punto con Mythos. No por convicción, sino por dependencia técnica. Hasta dónde llegará esta inversión de poder es algo que todavía no tengo claro.

Hay un detalle casi ausente en los titulares que resulta revelador. El club de cuarenta organizaciones con acceso a Mythos incluye miembros que Anthropic nunca nombró públicamente, entre ellos la NSA y el Instituto de Seguridad de IA del Reino Unido. Al menos un grupo de Discord entró sin invitación el día del lanzamiento usando credenciales de contratista y deducción de URLs. La empresa declarada amenaza para la seguridad nacional no sabe con exactitud quién usa su modelo más avanzado. La pregunta sobre quién audita a Anthropic permanece abierta mientras negocian los términos de reintegración.

En febrero, el Pentágono equiparó a Anthropic con riesgos asociados a adversarios extranjeros. En mayo, la Casa Blanca busca la forma de traerlos de vuelta sin perder el rostro. El modelo no cambió. Los principios éticos de la empresa tampoco. Lo que cambió fue la escala de la dependencia.

El dato que cierra el ciclo es este: la empresa excluida formalmente de los acuerdos de inteligencia artificial clasificada del Pentágono es la que todas las agencias de inteligencia quieren usar. La incluida —OpenAI— ya mantiene contratos militares sin las restricciones éticas que hicieron famosa a Anthropic. Y la capacidad que convirtió a Mythos en activo estratégico se replicará entre competidores en meses. El gobierno intercambió legitimidad regulatoria por esa exclusividad temporal. Esto es exactamente lo que ocurre cuando la tecnología supera a las instituciones que supuestamente la regulan.

Ciertos poderes históricos terminaron dependiendo de innovaciones que públicamente rechazaban. Los paralelos sugieren que las dependencias técnicas reescriben reglas de autoridad más rápido de lo que cualquier comunicado admite. Cómo se manifestará esto en los próximos años es la pregunta que no me abandona.

¿Qué revela esta inversión de poder sobre quién controla realmente la tecnología avanzada?

Fuentes:

1. Al Jazeera — Anuncio del Pentágono de acuerdos con siete empresas de IA para redes clasificadas

2. Time — Declaración de fuente anónima dentro de la administración Trump sobre uso de Anthropic en agencias de inteligencia

3. NBC News — Resultados del Instituto de Seguridad de IA del Reino Unido sobre capacidades de Mythos Preview

4. MSN / The Sun — Declaraciones de NCC Group y Council on Foreign Relations sobre replicación de capacidades

5. ScienceInsights — Esfuerzos de la Casa Blanca para revertir la directiva del OMB sobre Anthropic