El Pentágono ofrece 200 millones de dólares. Anthropic dice que no quiere que su IA se use "sin restricciones" para operaciones militares. El Pentágono responde que Anthropic "pagará un precio" y amenaza con designarla como "riesgo en la cadena de suministro". Mientras tanto, OpenAI, Google y xAI ya flexibilizaron sus restricciones éticas para uso militar.
Esta no es una disputa contractual. Es la primera batalla real sobre quién define los límites éticos de la inteligencia artificial militar. Lo que vemos aquí demuestra por qué los sistemas de IA auditable no son solo ideas abstractas, sino soluciones prácticas que podrían cambiar el juego.
Los hechos son claros y directos. El Pentágono exige poder usar la IA para "todos los propósitos legales", pero sin que el creador de la IA pueda preguntar cómo se usó. Cuando un ejecutivo de Anthropic contactó a Palantir para indagar si Claude había sido usado en la operación de captura de Maduro el 3 de enero, el Pentágono lo interpretó como una "amenaza operacional". Esto revela una asimetría en la vigilancia: el poder busca opacidad total sobre sus acciones mientras demanda acceso completo a las herramientas.
En mi experiencia, he visto patrones similares en otros contextos donde la tecnología se cruza con el poder. La pregunta clave que surge es: si Anthropic cede, ¿quién audita el uso de IA en operaciones militares clasificadas? Hoy por hoy, nadie lo hace. Tres de cuatro empresas ya han dado el paso. Este modelo de restricciones éticas corporativas es frágil porque depende de la voluntad de un CEO, no de un diseño sistémico.
Este patrón no es nuevo. A lo largo de la historia, quienes concentran poder han exigido herramientas sin límites mientras mantienen secreto su uso. La diferencia ahora es que estas herramientas pueden decidir de forma autónoma a gran escala. Cuando el Pentágono renombró formalmente su departamento como "Department of War" —un detalle real de esta disputa—, al menos mostraron algo de transparencia en sus intenciones. Pero, ¿qué pasa cuando el lenguaje como "propósitos legales" se usa para justificar todo?
"Legal" no equivale a "ético". En el libro, exploramos 12,000 años de atrocidades que fueron perfectamente legales: desde las conquistas del Imperio Romano hasta las deportaciones del siglo XX. La legalidad sola nunca ha sido suficiente como barrera ética. Aquí radica la ironía: el gobierno puede presionar económicamente a una empresa por mantener sus restricciones éticas. Designarla como "riesgo de cadena de suministro" forzaría a otras compañías que trabajan con el ejército a abandonar Claude. Es un poder coercitivo sobre la tecnología que nos obliga a repensar cómo la construimos.
La vulnerabilidad del sistema actual es evidente. Anthropic impone limites de seguridad voluntarios, pero el Pentágono puede simplemente elegir otro proveedor. Tres de cuatro ya cedieron. Las restricciones éticas basadas en corporaciones no bastan porque pueden ser presionadas, compradas o ignoradas.
Esto me lleva directamente a las ideas del Manifiesto en el libro: proponer IA auditable con código completamente abierto y tres niveles de auditabilidad. No se trata de esperar que una empresa "buena" resista —Anthropic podría cambiar de postura mañana—, sino de diseñar sistemas donde el uso opaco sea imposible. Los límites éticos estarían en la arquitectura, no en intenciones pasajeras.
Imagina esto: un breve desvío a algo que me intriga. En sociedades antiguas, como las ciudades-estado griegas, las asambleas obligaban a los líderes a rendir cuentas porque la información no podía controlarse del todo. Hoy, con herramientas como la criptografía y sistemas distribuidos, podemos replicar eso a escala global. No es utopía; es ingeniería aplicada a desafíos políticos.
Los tres niveles propuestos serían auditabilidad técnica del código, revisión de procesos de entrenamiento y monitoreo de uso en tiempo real. Cualquier usuario, militar o civil, operaría bajo transparencia verificable. El Pentágono podría argumentar que esto compromete operaciones, pero hay una distinción clave: la transparencia arquitectónica permite verificar límites éticos básicos —como no targeting civiles— sin revelar detalles operativos específicos.
No se trata de ver a Anthropic como el héroe y al Pentágono como el villano. Es una señal de que el control ético actual de la IA es insuficiente: depende de decisiones individuales que pueden alterarse bajo presión. Hay alternativas, como las que exploro en el libro, donde la rendición de cuentas se construye en el sistema mismo.
La verdadera batalla no gira en torno a un contrato de 200 millones. Es sobre si permitimos un precedente donde las instituciones exijan herramientas autónomas sin mecanismos de accountability. Una vez establecido, revertirlo será complicado. Pero creo que hay espacio para diseñar mejor, invitando a todos a reflexionar sobre cómo podemos auditar el poder antes de que sea demasiado tarde.
Las piedras no mienten, pero los historiadores a veces sí.