Hay una pregunta que ronda los laboratorios de inteligencia artificial y que pocos se atreven a plantear abiertamente: ¿ChatGPT realmente entiende algo? La respuesta corta es no. Yann LeCun, uno de los pioneros del aprendizaje profundo y galardonado con el Premio Turing, lo ha repetido con una franqueza que genera debate en Silicon Valley.

Para entender por qué LeCun elige un rumbo distinto al de OpenAI, Anthropic o Google, hay que examinar qué son los LLMs y por qué su aparente éxito oculta una limitación fundamental. Un modelo de lenguaje grande, como GPT-4 o Claude, funciona como una herramienta estadística para predecir texto. Durante el entrenamiento, analiza volúmenes enormes de datos textuales y responde a una consulta básica: dada esta secuencia de palabras, ¿cuál sigue con mayor probabilidad? Emplea arquitecturas de transformadores con miles de millones de parámetros, pero en esencia genera un mapa de asociaciones entre tokens lingüísticos.

Esto importa porque el lenguaje representa el mundo, no lo es. Es una versión imperfecta, filtrada por contextos culturales, de la realidad. Cuando un LLM afirma que "el hielo es frío", no lo deduce de ninguna experiencia sensorial, sino de la frecuencia con que esas palabras coaparecen en su entrenamiento. Si se le plantea algo poco representado en los datos, tropieza. No por escasez de información, sino por carecer de un entendimiento causal del entorno físico. Los LLMs capturan estructuras del lenguaje mediante estadísticas, pero no modelan el mundo más allá de esas correlaciones textuales.

LeCun lo resume como "autorrelleno de texto glorificado". Suena provocador, y lo es, pero apunta a una verdad técnica. Un niño de tres años intuye que inclinar un vaso derrama el agua, incluso sin haberlo visto antes. Ningún LLM posee esa intuición física a menos que se le describa en texto. Esta brecha separa el modelado lingüístico del modelado de la realidad.

LeCun no llegó a esta idea de la noche a la mañana. Mientras era Chief AI Scientist en Meta, desarrolló una arquitectura alternativa llamada JEPA (Joint Embedding Predictive Architecture). Su núcleo difiere radicalmente de los LLMs: en vez de anticipar la siguiente palabra en un ámbito textual, JEPA genera representaciones abstractas del mundo, prediciendo estados futuros en un espacio de alto nivel, sin precisar detalles sensoriales exactos.

En términos prácticos, un sistema JEPA observaría el entorno, formaría un modelo causal interno de su funcionamiento y lo aplicaría para planificar acciones. Se parece más al aprendizaje de un mamífero en su hábitat que a la optimización de un compresor de texto. LeCun sostiene que este enfoque abre una ruta hacia una inteligencia similar a la humana, aunque evita el término AGI con cuidado. No solo critica lo existente: propone una alternativa con bases técnicas concretas.

Ahora LeCun ha dejado Meta para fundar una startup que impulse estas ideas en un entorno independiente. Los detalles operativos son escasos, pero el objetivo es nítido: crear sistemas de IA que construyan modelos del mundo, razonen causalmente y operen sin depender de masas de texto etiquetado. Aprenderían de videos, interacciones físicas y observación de consecuencias, al estilo de los animales. Es el mismo principio que llevó a Judah Pearl a reformular la estadística desde la causalidad, y que durante décadas convivió como corriente minoritaria frente al dominio del aprendizaje correlacional.

¿Sería esta IA más explicable? Hay indicios de que sí. Los LLMs son opacos: sus decisiones emergen de interacciones imposibles de rastrear en billones de parámetros. Los modelos basados en representaciones del mundo podrían ofrecer mayor interpretabilidad, ya que sus estructuras internas reflejarían conceptos causales, no solo regularidades textuales. Aun así, "más interpretable" no equivale a "completamente transparente". Cuánto de esa claridad es real y cuánto aspiracional en las etapas actuales es una pregunta sin respuesta todavía.

¿Llegaría a AGI? LeCun se muestra escéptico con el concepto. Cree que los LLMs no alcanzarán inteligencia general por más que escalen datos y parámetros. Su propuesta enfatiza el aprendizaje del mundo físico, el razonamiento causal y la planificación jerárquica como ruta esencial. Si JEPA cumple lo prometido, generaría sistemas más competentes en tareas que demandan comprensión ambiental real. Llamarlo AGI, sin evidencia sólida aún, sería prematuro.

El contraste filosófico es claro. OpenAI, Anthropic y Google confían en que escalar LLMs —más datos, más potencia— producirá algo cercano a la comprensión. LeCun ve ese camino como un callejón refinado: impresiona, pero choca contra límites que no desaparecen con más cómputo. Es similar a escalar una escalera para tocar la Luna. Otros investigadores defienden que los LLMs podrían desarrollar modelos causales mediante escala pura. La hipótesis persiste abierta, aunque las bases teóricas para sostenerla siguen siendo débiles.

Los LLMs atraen inversiones millonarias porque brillan en demostraciones, generan texto persuasivo y habilitan productos rápidos. La visión de LeCun es más difícil de comercializar a corto plazo: aprender del mundo físico demanda tiempo, costos y pruebas complejas, lejos de un chatbot instantáneo. Su historial pesa, sin embargo. Las redes convolucionales que desarrolló forjaron la visión computacional moderna, y durante años fueron una apuesta marginal.

La pregunta central de LeCun es incómoda: ¿buscamos sistemas que emulen el lenguaje humano o que modelen el mundo como lo hacemos nosotros? Son metas distintas, con consecuencias distintas. Una IA causal sería más robusta, más segura en usos críticos y más alineada con valores humanos al razonar sobre impactos reales, no solo sobre regularidades éticas textuales.

La apuesta implica riesgos y horizontes lejanos. Pero en la historia de la tecnología, las visiones con fundamentos sólidos suelen imponerse, aunque no siempre las vean fructificar quienes las iniciaron.

Las piedras no mienten, pero los historiadores a veces sí.


Fuentes:

1. LeCun, Y. (2022). A Path Towards Autonomous Machine Intelligence. Meta AI Research. (Whitepaper público)

2. LeCun, Y. Presentaciones en NeurIPS 2023 y entrevistas en Lex Fridman Podcast (episodios 258 y 416)

3. Bengio, Y., Hinton, G., LeCun, Y. (2018). Deep Learning. Premio Turing ACM.

4. Marcus, G. & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books.

5. Pearl, J. & Mackenzie, D. (2018). The Book of Why: The New Science of Cause and Effect. Basic Books.