Yann LeCun publicó en X una frase corta y directa. Dario está equivocado. No sabe absolutamente nada sobre los efectos de las revoluciones tecnológicas en el mercado laboral. No es la primera vez que LeCun y Amodei chocan. Esta vez el ataque fue público y sin anestesia. Lo revelador no está en el insulto sino en la pelea por el derecho a definir qué viene.
En enero de 2026 Amodei publicó un ensayo extenso que describe una transformación laboral inusualmente dolorosa. Más amplia que cualquier revolución anterior porque toca simultáneamente muchas habilidades humanas y avanza a una velocidad que impide la adaptación. Estimó desempleo de entre el diez y el veinte por ciento. Ofreció como salida intervención gubernamental junto con tributación progresiva dirigida a empresas de IA. El relato está bien armado y posiciona a Anthropic como el guardián que puede manejar responsablemente ese umbral.
LeCun respondió con un movimiento hábil. Rechazó las cifras pero se descalificó junto con Amodei, Altman, Bengio e Hinton. No me escuchen a mí ni a ellos sobre este tema. Escuchen a economistas que han dedicado su carrera a estudiarlo. Al hundirse con sus rivales volvió casi imposible acusarlo de interés propio. Al apuntar a Acemoglu, Brynjolfsson y Autor reclamó la autoridad de los datos sin pedirla directamente. Un movimiento de ajedrez más que una declaración.
Lo que los registros muestran es más complicado que cualquiera de los dos versiones. El desempleo en EE.UU. se mantenía en 4.3 por ciento. El rastreador laboral de Anthropic no detectó brecha medible entre ocupaciones muy expuestas a IA y las que no lo están desde el lanzamiento de ChatGPT. Ese mismo rastreador sí registró una caída del catorce por ciento en tasas de empleo para trabajadores de veintidós a veinticinco años en roles expuestos. La catástrofe masiva aún no llega. La presión en la puerta de entrada al mercado laboral ya se mide. Ambas observaciones son ciertas al mismo tiempo.
Este choque sigue dinámicas que ya examinamos desde varios ángulos. En el análisis sobre Anthropic como empresa que crea la amenaza y vende protección revisamos filtraciones y el posicionamiento sistemático. En el seguimiento de la IA como amenaza rastreamos cómo instituciones estadounidenses reencuadraron la tecnología como riesgo de seguridad nacional. Y en el caso de Irán como amenaza vimos cómo fabricar consenso sobre un peligro justifica quién lo administra. El proceso es siempre el mismo. Lo vimos con los bancos tras 2008, que redactaron su propia regulación. Lo vimos con las farmacéuticas definiendo qué sustancias eran seguras. Lo vimos con Glasswing construyendo el problema que luego venía a resolver. Quien define la amenaza define quién nos protege de ella. No es conspiración. Es una regularidad estructural que reaparece con distinto nombre.
LeCun tampoco habla desde la neutralidad. Fundó AMI Labs después de dejar Meta y compite directamente con Anthropic. Su interés en reducir el relato de riesgo existencial de los LLMs encaja perfectamente con su apuesta por arquitecturas distintas. Amodei necesita que el mundo crea que la IA es peligrosa y que solo su equipo puede controlarla. LeCun necesita que el mundo crea que los LLMs están sobrevalorados y que su enfoque es el correcto. Un memo filtrado atribuido a la directora de ingresos de OpenAI describió el discurso de Anthropic como construido sobre miedo, restricción y la idea de que un pequeño grupo de élites debería controlar la IA. La descripción se sostiene independientemente de quién la escriba.
LeCun tiene razón en un punto concreto. Los directivos de empresas de IA no son economistas laborales. Sus proyecciones sobre empleo no tienen más validez que las de cualquier persona con opiniones fuertes y altavoz grande. Al mismo tiempo, los datos del rastreador de Anthropic sugieren que algo significativo ocurre en el empleo de nivel inicial. Ambas lecturas pueden coexistir. El problema real es que ninguno formula la pregunta central.
Esa pregunta es quién debería tomar las decisiones sobre cómo regular esta transformación, con qué datos, bajo qué rendición de cuentas y con representación de quiénes. Ni Amodei ni LeCun ofrecen esa respuesta porque ella requiere instituciones, no visiones individuales. Las instituciones son precisamente lo que ambos desplazan, cada uno a su manera. Uno construye un relato que justifica regulación hecha a la medida de su empresa. El otro descalifica sin proponer un método alternativo de gobernanza. Pelean por la historia oficial. Ninguno construye la infraestructura democrática que volvería esa disputa menos necesaria.
La pelea se presenta como debate técnico sobre el futuro del empleo. No lo es. Es un conflicto entre dos versiones sobre quién tiene autoridad para definir el riesgo tecnológico y, por tanto, para diseñar la respuesta. Quien gane ese debate no necesita ganar elecciones ni aprobar leyes. Solo necesita que suficiente gente acepte su versión de lo que viene.
Las piedras no mienten. Sigo explorando este tema y todavía no tengo claro cómo surgen las estructuras de rendición de cuentas cuando los actores dominantes carecen de incentivos para limitarse mutuamente. Si ninguno de los dos tiene incentivos para construir instituciones que los limiten a ambos, ¿de dónde se supone que van a salir esas instituciones?