Jensen Huang declaró que la Inteligencia General Artificial ya existe. Lo hizo en una conversación que circuló ampliamente, con la seguridad de alguien que no anuncia un descubrimiento sino que firma un decreto. El problema no es que esté equivocado sobre la tecnología. Es algo más sutil: no hizo un anuncio técnico. Redefinió un concepto.

La definición que usó Huang se resume así: AGI es cualquier sistema capaz de generar mil millones de dólares en valor económico. Bajo esa métrica, efectivamente hemos llegado. Pero esa definición dista mucho de lo que la comunidad científica debatió durante décadas bajo ese término. AGI, en su sentido original, alude a sistemas con capacidad cognitiva general comparable a la humana: razonamiento abstracto, transferencia de conocimiento entre dominios, adaptación genuina a situaciones nuevas. Lo que Huang describió es otra cosa. Tomó una palabra cargada de significado técnico y filosófico, la vació y la rellenó con una métrica financiera conveniente para quien vende la infraestructura que sostiene todo el andamiaje.

Esto importa porque el lenguaje moldea realidades. Cuando el CEO de la empresa más valiosa en chips gráficos declara que la AGI ya llegó, esa frase mueve cosas concretas: políticas públicas, regulación, decisiones de inversión, contratos corporativos, presupuestos gubernamentales. El lenguaje impreciso genera consecuencias institucionales muy precisas.

Reconozco esta tendencia en otros contextos. No es nueva. Ocurrió con "la nube", cuando empresas que vendían servidores renombraron el servicio y construyeron dependencias a escala global. Sucedió con blockchain, donde la promesa de descentralización radical acabó concentrada en unos pocos exchanges y fondos de capital de riesgo. Y con el metaverso, que duró lo que un ciclo de atención antes de revelar que nadie quería vivir con un casco de realidad virtual. En cada caso, la estructura fue la misma: nueva herramienta → relato de transformación radical → infraestructura controlada por los actores habituales. Cambia el nombre. No cambia quién cobra.

Un detalle que pasó desapercibido en muchas coberturas: en esa misma conversación, alguien preguntó si cien mil agentes de IA podrían construir Nvidia. Huang respondió que no. Esa admisión desinfla su declaración inicial. Si la AGI existe y genera valor económico masivo, pero no puede replicar la empresa que la soporta, no hablamos de inteligencia general. Hablamos de herramientas capaces en dominios específicos, más rápidas y más costosas de operar que las anteriores.

Quien define los términos domina el relato. Esta idea conecta con una tesis recurrente: las nuevas herramientas tecnológicas no redistribuyen el poder de manera automática. Lo consolidan. Si Nvidia define qué es AGI, decide cuándo llegamos, qué se necesita para mantenerla y, por extensión, a quién comprarle. La definición no es un matiz semántico. Es un mecanismo de control.

Vale considerar un paralelo histórico. En el siglo XIX, la expansión de los ferrocarriles prometía democratizar el comercio y el acceso a mercados. En parte lo logró. Pero también concentró poder económico y político en quienes manejaban rutas, tarifas y nodos. Los agricultores, dependientes de esos rieles para vender su producción, aprendieron que la herramienta liberadora podía asfixiarlos con subidas de precios. La tecnología era real. El relato de democratización tenía base. Pero el poder estructural permaneció, o migró a actores que pronto actuaron igual.

Lo curioso es cómo estos ciclos se aceleran. El metaverso tardó años en desinflarse como relato. El entusiasmo por blockchain cubrió un ciclo de mercado completo. La idea de que la AGI ya llegó, con su redefinición conveniente, podría durar menos. Más gente lee entre líneas: investigadores, ingenieros, periodistas especializados señalan esta dinámica desde hace tiempo. No falta quien lo diga. Los titulares corren más rápido que las precisiones.

En lugar de aceptar definiciones impuestas, comunidades open source podrían forjar sus propias métricas para AGI, basadas en capacidades verificables y accesibles, no solo en ganancias. Eso no resuelve el problema estructural, pero abre puertas a una gobernanza más distribuida.

Ese es el costo real de tragarse el titular. Las instituciones que regulan, los gobiernos que fijan políticas de IA, los fondos que asignan recursos no siguen hilos escépticos en redes. Atienden declaraciones de CEOs con incentivos para presentar la transformación como hecho consumado. Declarar la AGI llegada desplaza el debate de "¿deberíamos construirla?" a "¿cómo adaptarnos?". Es un giro retórico potente.

Aún no queda claro cómo resolver el problema estructural: quienes crean las herramientas también crean el vocabulario para describirlas, y ese vocabulario se traduce en políticas antes de cualquier auditoría. Lo evidente es que la primera defensa es sencilla: leer completo, no solo el titular. La admisión de Huang estaba en la misma charla. Solo que pocos la citaron.

Hay algo esperanzador en eso, aunque parezca paradójico. Si el engaño funciona por atención superficial, el remedio no exige tecnología alternativa ni regulaciones globales. Exige hábito. Preguntar quién define los términos y por qué ahora. Reconocer que cuando quien vende picos declara el oro encontrado, la pregunta no es cuánto oro hay. Es cuántos picos venderá.

Las piedras no mienten, pero los historiadores a veces sí.


Fuentes:

1. Declaraciones de Jensen Huang en entrevista pública (diversas coberturas, enero 2025)

2. Bostrom, N. Superintelligence: Paths, Dangers, Strategies (2014) — marco original del debate sobre AGI

3. Doctorow, C. The Internet Con: How to Seize the Means of Computation (2023) — consolidación de poder en ciclos tecnológicos

4. Cortada, J. W. The Digital Flood: The Diffusion of Information Technology Across the U.S., Europe, and Asia (2012) — paralelos históricos de difusión tecnológica

5. Marcus, G. & Davis, E. Rebooting AI: Building Artificial Intelligence We Can Trust (2019) — crítica técnica a narrativas de IA general