Dario Amodei habló. Y lo que dijo —y lo que no dijo— invita a una reflexión cuidadosa, especialmente para quienes seguimos estos desarrollos desde fuera de Estados Unidos.
El Department of Defense (DoD) —al que en algunos círculos se refiere como 'Department of War' por la retórica actual— estableció un plazo para que Anthropic respondiera a solicitudes sobre el uso de Claude en aplicaciones militares y de seguridad nacional. El plazo pasó. Amodei respondió con una declaración que revela más en sus omisiones que en sus palabras directas.
En términos generales, Anthropic acepta colaborar con el gobierno de Estados Unidos en aplicaciones de IA para defensa y seguridad nacional, siempre bajo ciertas condiciones. Lo que rechaza —o al menos lo que indica que rechazaría— es eliminar por completo las salvaguardas éticas que distinguen a Claude de otros modelos. La declaración menciona usos responsables, alineación con los valores de la compañía, y prohíbe que Claude se use para causar daño directo a civiles o para decisiones letales autónomas.
Esas ideas suenan prometedoras. Lo interesante es cómo términos como estos pueden interpretarse de maneras variadas, dependiendo del contexto. En mi experiencia, he visto patrones similares en otros avances tecnológicos, donde los principios iniciales evolucionan con el tiempo.
Este enfoque recuerda casos pasados. Google participó en Project Maven en 2018, se retiró ante protestas internas, y más tarde volvió a contratos de defensa de forma discreta. Microsoft firmó acuerdos para sistemas de visión en combate, generando debates entre sus empleados. Amazon proporcionó herramientas de reconocimiento facial a agencias policiales hasta que la opinión pública lo cuestionó.
No se trata de intenciones maliciosas en estas empresas. Más bien, los marcos éticos sólidos en tiempos estables tienden a ajustarse cuando entran en juego fondos federales y prioridades de seguridad. Una vez que se da el primer paso, los siguientes fluyen con más facilidad. Pero esto también abre puertas a alternativas, como modelos de IA abiertos que prioricen la transparencia desde el inicio.
Lo que distingue a Anthropic, en teoría, es su origen: se fundó enfocada en la seguridad de la IA como misión central, no como accesorio. Dario Amodei y su hermana Daniela dejaron OpenAI porque priorizaban el crecimiento sobre la precaución. Anthropic surgió con la promesa de tomar en serio los riesgos. Ahora, esa promesa enfrenta una prueba concreta, y es fascinante ver cómo se desarrolla.
La declaración no es una rendición completa. Hay límites que Amodei dice que no cruzará, y eso es un punto a favor. Sin embargo, falta claridad sobre usos específicos permitidos o prohibidos. Cuando se habla de colaborar en aplicaciones de seguridad nacional responsables, surge la pregunta: ¿quién decide qué es responsable? ¿Anthropic, el Pentágono, o un grupo mixto? Esa ambigüedad invita a más preguntas que respuestas.
Para usuarios fuera de Estados Unidos, como en México o España, hay implicaciones prácticas. Primero, en privacidad y soberanía de datos: si Claude se integra en contratos de inteligencia, ¿qué pasa con las conversaciones de usuarios globales? Los términos de servicio ya permiten procesamiento en servidores estadounidenses, y leyes como la CLOUD Act podrían dar acceso a agencias bajo ciertas condiciones. Esto no es nuevo, pero gana relevancia con estos acuerdos.
Una digresión breve: en contextos históricos, como las antiguas rutas comerciales en Mesoamérica, el control de información era clave para el poder. Hoy, con la IA, vemos ecos de eso, donde los datos fluyen como bienes valiosos. Volviendo al tema, ¿cómo asegurar que calibraciones para usos militares no afecten el modelo general?
Segunda implicación: el comportamiento del modelo. Si se entrenan versiones de Claude para inteligencia, ¿se garantiza que esos ajustes no se filtren al uso cotidiano? Es una cuestión técnica real. Los modelos grandes son complejos, y cambios en entrenamiento pueden tener efectos inesperados. No tengo una respuesta clara, y dudo que alguien fuera de Anthropic la tenga por ahora.
Tercera, la dimensión política me intriga a largo plazo. Si una empresa con postura ética clara cede ante presiones militares, normaliza el camino para la industria. Anthropic no es el juez moral, pero su voz consistente importaba. Si ellos ajustan, la presión sobre OpenAI o Google DeepMind para seguir suit —quizá sin tantas precauciones— disminuye.
Esto conecta con temas que exploro en mi libro sobre patrones históricos en la tecnología: cómo decisiones en momentos de urgencia se convierten en normas duraderas, como en la Revolución Industrial, donde innovaciones prometedoras trajeron tanto progreso como desafíos éticos. Hay esperanza en reconocer estos patrones temprano, permitiendo que usuarios y reguladores influyan en el curso.
Amodei podría haber publicado los términos exactos del acuerdo con el DoD. Esa transparencia permitiría a usuarios evaluar lo que implica seguir usando Claude. Sin ella, la declaración parece más una gestión de percepción que un compromiso abierto.
Sigo usando Claude, y creo que vale la pena por sus capacidades. Pero usarlo con conciencia incluye entender su contexto, con sus matices. La declaración hace visibles esas áreas grises, lo cual es un avance. Visible lleva a preguntas, y preguntas a posibles soluciones colectivas.
Lo que viene es ver si esos límites se mantienen bajo presión real. Y la presión siempre aparece, pero también las oportunidades para alternativas éticas en IA.
Las piedras no mienten, pero los historiadores a veces sí.
Fuentes:
1. Declaración pública de Dario Amodei sobre colaboración con el Department of Defense (2026)
2. "Pentágono vs Anthropic: IA militar sin límites éticos" — Yves Laurent (2026-02-25)
3. Wired: Google's Project Maven controversy and return to defense contracts (2018-2022)
4. MIT Technology Review: The CLOUD Act and international data access implications
5. Anthropic Terms of Service and Usage Policy (versión vigente 2026)