El AI Act europeo se presentó como el marco regulatorio más ambicioso del mundo para la inteligencia artificial. Años de negociaciones, cientos de páginas técnicas, decenas de grupos de consulta. El resultado: un documento que, en el papel, suena razonable. En la práctica, contiene una excepción lo suficientemente grande como para que pasen todos los actores que supuestamente debía controlar.
La clave está en una sola disposición: los sistemas de IA de "alto riesgo" que ya estén cubiertos por regulación sectorial existente quedan excluidos de las obligaciones más estrictas del AI Act. Banca, salud, infraestructura crítica, sistemas de justicia. Precisamente los sectores donde la IA ya toma decisiones que afectan millones de vidas. La lógica oficial es que ya existe regulación. Lo que no se dice es que esa regulación sectorial fue diseñada antes de que existiera la IA generativa, y que los mismos actores que la escribieron entonces son los que ahora operan los modelos.
Esto no es un error de diseño. Es el resultado predecible de cómo funciona la captura regulatoria.
El proceso tiene una historia larga. En Roma, los collegia —gremios de comerciantes y artesanos— lograron que el Estado romano formalizara sus prácticas como norma. No para proteger al público, sino para cristalizar ventajas competitivas ya existentes. En la Europa medieval, los gremios que supuestamente regulaban la calidad del trabajo también regulaban quién podía competir y en qué condiciones. A finales del siglo XIX, Standard Oil no desapareció con la regulación antimonopolio: se fragmentó en subsidiarias que siguieron coordinando precios informalmente durante décadas, mientras el marco legal daba la apariencia de competencia. El regulado no solo sobrevive a la regulación; frecuentemente termina escribiéndola.
Lo interesante es que no hace falta corrupción para que esto ocurra. No necesitas sobornos, conspiraciones ni acuerdos en cuartos oscuros. Basta con la física de los recursos. Cuando la Comisión Europea abre un periodo de consulta técnica sobre estructuras de IA en infraestructura crítica, ¿quién tiene los abogados especializados, los equipos de política pública y los presupuestos para participar con documentos de cuatrocientas páginas? No son las organizaciones civiles. No son los académicos independientes con contratos temporales. Son Microsoft, Google, los grandes bancos europeos y las aseguradoras con divisiones enteras dedicadas a gestión regulatoria. La captura no es conspiración; es gravedad. Los recursos fluyen hacia quienes ya los tienen.
El mismo proceso se repite en la transición energética. Las grandes petroleras no desaparecieron con los acuerdos climáticos: se reinventaron como "empresas de energía" y capturaron los subsidios verdes. Las dinámicas extractivas persistieron bajo vocabulario nuevo. Con el AI Act ocurre algo análogo: los modelos de lenguaje siguen entrenándose con los mismos datos, los mismos cinco o seis actores siguen controlando la infraestructura de cómputo, y los mismos lobistas que participaron en las consultas técnicas ahora explican públicamente que el marco europeo es "equilibrado" y "responsable". El vocabulario cambió. La estructura de poder, no.
Hay una constante que se repite en marcos regulatorios complejos: las excepciones no se renegocian, se heredan. Cada excepción "razonable" se convierte en punto de partida para la siguiente negociación. Las empresas no vuelven a la mesa a defender lo que ya ganaron; simplemente construyen sobre ello. Así fue con las exenciones fiscales para ciertos instrumentos financieros antes de dos mil ocho. Así fue con las excepciones de responsabilidad para plataformas digitales en los años noventa, que siguen vigentes décadas después bajo la etiqueta de "safe harbor". Lo que se concede hoy como excepción temporal se convierte en derecho adquirido mañana. Y los derechos adquiridos no se tocan.
Esto es más complicado de lo que parece desde afuera. Hay investigadores que llevan años argumentando que la regulación sectorial puede ser más efectiva que los marcos horizontales, precisamente porque los reguladores sectoriales conocen mejor los contextos específicos. No es un argumento sin mérito. El problema es que ese argumento asume reguladores sectoriales independientes y bien financiados, con capacidad técnica real para auditar estructuras de IA. En la práctica, los reguladores sectoriales europeos de banca y salud ya tienen déficits de capacidad técnica significativos. Entregarles la supervisión de estructuras de IA avanzadas sin recursos adicionales no es descentralización inteligente; es abdicación con buena prensa.
Lo que el AI Act cambia con certeza es el vocabulario del debate. Ahora hay términos oficiales: "sistemas de alto riesgo", "gobernanza de datos", "supervisión humana". Esos términos importan porque definen lo que se puede discutir y cómo. Pero el vocabulario nuevo no modifica quién controla los servidores, quién posee los datos de entrenamiento, ni quién puede realmente auditar un modelo de setenta mil millones de parámetros. La infraestructura permanece concentrada. Los incentivos permanecen alineados con la concentración.
No tengo claro cómo resolver esto completamente, y desconfío de quien diga que sí lo tiene. Pero hay señales de qué dirección vale explorar. Los modelos de gobernanza que han funcionado históricamente en situaciones de captura regulatoria no son los que intentan regular desde arriba con más detalle técnico. Son los que crean contrapesos desde abajo: auditorías ciudadanas con acceso real a los sistemas, financiamiento público para participación técnica independiente en consultas regulatorias, y —esto es clave— mecanismos que hagan que el costo de capturar la regulación sea más alto que el beneficio. Hoy ese cálculo está invertido. Capturar es barato; resistir la captura es caro.
El AI Act no es el fin de la historia regulatoria de la inteligencia artificial. Es el primer capítulo. Y como en todo primer capítulo, lo que se establece aquí —qué actores tienen poder de definición, qué excepciones quedan codificadas, qué vocabulario se vuelve oficial— va a condicionar todo lo que venga después. Los gremios medievales no empezaron con monopolios absolutos. Empezaron con excepciones razonables.
Las piedras no mienten, pero los historiadores a veces sí.
Fuentes:
1. Reglamento (UE) 2024/1689 del Parlamento Europeo — AI Act, texto oficial consolidado
2. Stigler, G. (1971). "The Theory of Economic Regulation." Bell Journal of Economics and Management Science, 2(1), 3–21.
3. Kolko, G. (1963). The Triumph of Conservatism. Free Press — análisis de captura regulatoria en Standard Oil y ferrocarriles
4. Djankov, S. et al. (2002). "The Regulation of Entry." Quarterly Journal of Economics, 117(1) — hallazgos empíricos sobre regulación que institucionaliza a incumbentes
5. Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs — estructura de poder en infraestructura de datos