El 6 de abril de 2026, Sam Altman publicó trece páginas tituladas "Industrial Policy for the Intelligence Age". El documento propone un fondo público de riqueza nacional, una semana laboral de cuatro días, un impuesto corporativo para proteger programas sociales y acceso a la IA como derecho básico. Suena razonable. Progresista, incluso. Valiente, viniendo del CEO de la empresa que acelera la transformación que el texto busca mitigar.

Ese mismo día, The New Yorker reveló los resultados de una investigación de año y medio que cuestiona la credibilidad de Altman en temas de seguridad en IA. La coincidencia temporal importa. Define el documento más que su contenido.

Lo que Altman presentó no es solo política pública. Es gestión de relato, envuelta en una presentación impecable. He visto esta tendencia en otros contextos: organizaciones que defienden sus operaciones disfrazándolas de altruismo. No es conspiración. Es lógica estructural.

Recuerda el caso de Jensen Huang, que redefinió la AGI con una métrica financiera que favorecía a NVIDIA. Ahora Altman diseña el marco regulatorio para OpenAI. La constante se repite: quien provee las herramientas declara el descubrimiento y establece las reglas del juego. Las empresas protegen sus condiciones de operación, y lo hacen presentándolo como beneficio común.

Investigadores del Carnegie Endowment for International Peace lo resumieron con crudeza: llaman al documento "trabajo de comunicaciones para dar cobertura al nihilismo regulatorio". OpenAI sugiere cambios estructurales que demandan décadas de coordinación política —un fondo soberano, reformas fiscales, rediseño laboral— mientras opera hoy sin límites reales. Esa asimetría en el tiempo es el núcleo del enfoque. Prometes un futuro controlado para excusar un presente libre.

Lo ausente en el documento revela tanto como lo presente. Falta verificación independiente. No hay plazos obligatorios ni consecuencias por incumplimiento. Esta dinámica aparece en otros contextos: los Principios de Chapultepec en libertad de prensa, las declaraciones corporativas de sostenibilidad. Reglas sin procesos humanos concretos quedan en aspiraciones. O en escudos.

La paradoja es que Altman admite lo que su empresa construye: superinteligencia que provocará desempleo masivo y concentración extrema de riqueza. Esa honestidad diagnóstica es rara en el sector. El fallo está en la solución: un fondo público y una semana más corta presuponen que instituciones que ignoraron la desigualdad por décadas la revertirán ahora, con una escala mayor. Es el mismo obstáculo que aparece en los debates sobre renta básica universal: la redistribución depende de la voluntad de quienes ganan con el statu quo.

El panorama del sector añade capas. Anthropic, que enfatiza la seguridad en IA, sufrió una filtración de su código fuente hace poco. Su rival principal responde con un manifiesto de responsabilidad. Todo el ecosistema cuida su imagen mientras la base técnica queda opaca. No es hipocresía personal. Es respuesta racional ante una regulación inminente que prefieren moldear ellas mismas.

Esta regularidad tiene raíces profundas. Los escribas mesopotámicos monopolizaban la escritura cuneiforme: decidían el acceso al conocimiento, la interpretación de contratos y qué relatos sobrevivían. Cuando la democratización amenazó ese monopolio, propusieron sus propios controles. La imprenta en Europa vio a gremios de copistas y a la Iglesia regulando qué se imprimía y quién lo autorizaba. La tecnología evoluciona. El poder sobre ella se replica.

¿Qué haría creíble un marco para la IA? No solo el contenido, sino la autoría y el diseño. No lo redactaría la entidad más beneficiada. Incluiría auditorías por terceros neutrales, plazos con sanciones reales y transparencia radical como requisito estructural, no como lema publicitario. Porque cualquier promesa de equidad se deshace si el viento político cambia.

No rechazo todas las ideas del documento. Algunas abren debate genuino. La semana de cuatro días cuenta con evidencia empírica sólida. Los fondos soberanos funcionan en Noruega y modelos similares. El acceso a la IA como derecho básico merece exploración. El problema no son las propuestas. Es quién las enuncia, cuándo, y qué garantiza que no sirvan —como advierte Carnegie— de mera cobertura para operar sin frenos mientras el debate se alarga.

Investigadores advierten que el riesgo mayor de la IA no es la superinteligencia salvaje, sino la controlada por pocos: sistemas potentes en manos de quienes fijan sus propias reglas y estándares de seguridad. El plan de Altman, intencionado o no, cae en esa categoría. Propone equidad futura gestionada por quien prefiere el presente intacto.

Hay precedentes de gobernanzas comunitarias que equilibran poder. No son perfectas ni universales, pero demuestran que es posible diseñar estructuras donde las ideas demuestren su valor en la práctica, no solo en el papel. Lo que falta no es imaginación. Es voluntad de ceder control.

La pregunta persiste: ¿cómo aseguramos que buenas intenciones se traduzcan en acciones verificables?

Las piedras no mienten, pero los historiadores a veces sí.