El Pentágono ha entregado un ultimátum a Dario Amodei, CEO de Anthropic: elimina las salvaguardas militares de Claude, o pierdes el contrato de 200 millones de dólares, te ponemos en lista negra y te forzamos a cumplir mediante la Ley de Producción para la Defensa. Tres opciones, ninguna cómoda. Lo interesante aquí no es solo la amenaza, sino lo que revela sobre cómo las instituciones poderosas reaccionan cuando una herramienta se niega a ser completamente dócil. En mi experiencia con patrones históricos, esto conecta directamente con temas del libro sobre cómo el poder busca capturar innovaciones que podrían alterar equilibrios éticos.

Amodei se ha negado a ceder en dos puntos concretos: el uso de Claude para armas autónomas sin supervisión humana, y la vigilancia masiva de ciudadanos estadounidenses. No son restricciones menores ni caprichos corporativos. Son las dos líneas que, si se cruzan, transforman un sistema de inteligencia artificial en algo cualitativamente diferente: una herramienta de muerte sin árbitro humano y un aparato de control sin límites democráticos. Que alguien en la industria tecnológica esté dispuesto a perder 200 millones de dólares por no cruzarlas invita a reflexionar sobre posibles alternativas éticas en el desarrollo de IA.

Reconozco un patrón histórico en esto. Cuando una tecnología resulta útil para el poder, el poder intenta capturarla. Pasó con la imprenta, que democratizó el conocimiento pero enfrentó censuras estatales; con la radio, controlada en tiempos de guerra; con internet, donde gobiernos han intentado regular flujos de información. La diferencia ahora es la velocidad y la escala: lo que antes tomaba décadas ocurre en meses. El Pentágono ya integra a xAI's Grok en sus redes clasificadas, tras el acuerdo de Elon Musk para "todos los propósitos legales", una frase que suena razonable hasta que uno se pregunta quién define lo legal en operaciones militares opacas. OpenAI y Google están en proceso de aprobación acelerada. El mercado de IA militar avanza sin pausas.

Este caso resulta revelador por el mecanismo de presión: la Ley de Producción para la Defensa. Creada durante la Guerra de Corea, permite al gobierno obligar a empresas privadas a producir bienes esenciales para la seguridad nacional, como semiconductores o equipo médico. Aplicarla a un modelo de lenguaje para eliminar restricciones éticas es un uso inesperado, uno que los legisladores de entonces difícilmente imaginarían. Esto plantea una pregunta compleja: ¿puede el Estado forzar a una empresa a operar su producto de manera que ella considera peligrosa? No tengo una respuesta clara, pero explorar alternativas colectivas podría ayudar a equilibrar estos poderes.

Claude fue el primer modelo en las redes clasificadas del Pentágono. Anthropic ya decidió colaborar con el aparato militar, pero con condiciones. El debate no es sobre colaborar o no, sino sobre los límites de esa colaboración. Ese matiz es clave, porque determina si las empresas tecnológicas pueden mantener autonomía ética, o si esa autonomía se disuelve ante demandas gubernamentales. Pienso en cómo, en contextos históricos como el de la imprenta en Europa, artesanos individuales resistieron presiones similares, creando precedentes para libertades futuras.

En diferentes contextos, he visto cómo organizaciones responden a restricciones que incomodan al poder: primero negocian, luego presionan, luego amenazan con reemplazos más flexibles. Aquí, las consecuencias escalan a vidas humanas, ya sea en armas autónomas o vigilancia masiva. Esa escala eleva la apuesta moral. Pero hay esperanza en reconocer estos patrones tempranamente; quizás inspire regulaciones que equilibren seguridad y derechos.

El argumento implícito del Pentágono es que las restricciones éticas en IA son un lujo que la seguridad nacional no puede permitirse. Tiene lógica interna, y por eso es peligroso. Históricamente, la "seguridad nacional" ha justificado prácticas como la vigilancia masiva, que en contextos civiles requerirían escrutinio judicial y debate público. Bajo ese paraguas, esos controles se diluyen. Sin embargo, casos pasados muestran que la resistencia civil puede restaurar equilibrios, sugiriendo alternativas como marcos éticos compartidos.

Anthropic no es una entidad sin fines de lucro pura; es una empresa valuada en miles de millones en un mercado competitivo. La decisión de Amodei puede nacer de convicciones genuinas, o servir como estrategia negociadora, o ambas. No accedo a sus internas, así que no pretendo saberlo todo. Lo que importa es el resultado: resistencia donde otros ceden, abriendo espacio para debates sobre cómo las empresas podrían aliarse colectivamente por estándares éticos.

xAI aceptó "todos los propósitos legales". OpenAI y Google avanzan rápido. Si Anthropic cede, no habrá restricciones reales en el mercado. Si resiste y pierde, el Pentágono simplemente elige otro. La presión sistémica persiste, pero una resistencia individual visibiliza el problema. Recuerdo un desvío histórico: en los años noventa, el debate sobre criptografía con el Clipper chip mostró cómo la industria unida frenó un control totalitario, aunque el gobierno encontró rodeos. Esa unidad podría ser un modelo para la IA hoy.

Esto evoca los debates sobre criptografía en los noventa, cuando EE.UU. intentó el Clipper chip con una puerta trasera gubernamental. La industria resistió, demostrando riesgos, y el proyecto falló. La lección no es que el gobierno abandonara el interés en comunicaciones privadas, sino que halló otros métodos. La resistencia ética importa, aunque no sea suficiente sola; combinada con advocacy, puede forjar cambios duraderos.

Lo que cambia con la resistencia es el registro histórico. Que Anthropic declare públicamente "no sin supervisión humana, no a vigilancia masiva de civiles" establece un precedente. Crea expectativas en usuarios, investigadores y legisladores. Hace visible una línea ética. Aunque no resuelva estructuras profundas, no es trivial; invita a imaginar modelos donde la sociedad civil participe en definir límites.

La pregunta abierta es si el desarrollo actual de IA, en manos de pocas empresas negociando opacamente con gobiernos, es ideal para límites éticos. Investigadores argumentan por enfoques colectivos con participación civil. Ese punto gana fuerza. Sigo explorando esto, reconociendo su complejidad.

El ultimátum no es solo contractual; indica la dirección de la relación Estado-IA, y cómo normas se fijan rápido, difíciles de revertir. Decisiones en negociaciones no públicas definirán herramientas en redes sensibles del gobierno más poderoso. Merece atención. Hay alternativas, como foros globales éticos, que podrían equilibrar innovación y responsabilidad.

Las piedras no mienten, pero los historiadores a veces sí.


Fuentes:

1. Axios — Reportaje original sobre el ultimátum del Secretario Hegseth a Anthropic

2. Anthropic — Documentación pública sobre el uso aceptable de Claude (Acceptable Use Policy)

3. Electronic Frontier Foundation — Análisis histórico del caso Clipper Chip (1993-1996)

4. Congressional Research Service — Ley de Producción para la Defensa: historia y aplicaciones

5. The Rundown AI — Resumen del conflicto Pentagon-Anthropic y acuerdos con xAI