Cada vez que un grupo de gobiernos, corporaciones o expertos se reúne para redactar principios éticos sobre inteligencia artificial, surge ese momento predecible: alguien insiste en que sean vinculantes y la tensión crece. Al final, tras debates interminables, optan por hacerlos aspiracionales. Siempre pasa lo mismo.

Los Principios de Chapultepec, adoptados en el marco de la OCDE y debatidos en foros hemisféricos con fuerte presencia latinoamericana, siguen la misma tendencia. Incluyen ideas sólidas. También omiten aspectos que dicen más sobre sus límites que sobre sus fortalezas.

Vale criticarlos en serio, sobre todo porque representan un aporte regional articulado al debate global sobre IA ética. Eso implica señalar sus fallos y entender por qué marcos similares fracasan en todas partes. Las declaraciones suelen sonar bien. Rara vez cambian algo.

Estos principios destacan valores clave: transparencia, no discriminación, rendición de cuentas, privacidad y seguridad. El fallo no radica en su contenido. Está en el silencio sobre implementación, verificación y consecuencias por incumplimiento. Basta compararlos con los Principios de IA de la OCDE de 2019, el Reglamento de IA de la Unión Europea, las directrices de la Casa Blanca para IA responsable o los principios de Beijing. Todos aluden a la transparencia. Todos promueven la equidad. Todos, en mayor o menor medida, quedan en aspiraciones sin herramientas de ejecución concreta. Esa convergencia en el lenguaje debería tranquilizarnos, pero en realidad alerta: si todos repiten lo mismo con variaciones mínimas, es probable que nadie avance de verdad.

Donde Chapultepec brilla es en su enfoque sobre soberanía de datos y desarrollo inclusivo desde una óptica latinoamericana. Reconoce que la IA no surge en un vacío neutral, sino en realidades de desigualdad donde datos de grupos vulnerables se extraen sin generar valor local. Eso convence. El Reglamento de IA europeo, en cambio, parte de una economía con bases sólidas y presupone instituciones que faltan en la mayoría de países de la región. Chapultepec al menos visibiliza esa brecha.

Sin embargo, diagnosticar bien no garantiza soluciones efectivas. Ahí aparece el obstáculo estructural que Le Bon y Dunbar, desde ángulos distintos, ya habían anticipado.

Gustave Le Bon explicó hace más de un siglo cómo las masas humanas, al actuar en grupo, abandonan el razonamiento individual y caen en liderazgos carismáticos o relatos simplificados. Los documentos éticos sobre IA son frutos de masas institucionales: comités extensos, consultas masivas, búsquedas de consenso. El resultado suele ser el denominador común más bajo. Nadie rechaza la transparencia. Nadie se opone a la equidad. Pero en textos de consenso amplio, esos conceptos se diluyen hasta abarcar todo y nada.

Robin Dunbar añade otra capa. Sus estudios sobre los límites cognitivos en redes humanas indican que la coordinación efectiva —la que genera cambios medibles— surge en grupos reducidos con lazos de confianza. No en conferencias con cientos de delegados. No en acuerdos firmados por docenas de naciones con sistemas legales dispares. Los equipos que logran avances reales operan en el rango de Dunbar: de cinco a quince personas, con metas claras, indicadores precisos y rendición de cuentas directa. Un documento ético global que ignora la coordinación local viola esa dinámica humana básica.

Este problema no es exclusivo de Chapultepec. Organizaciones con políticas éticas detalladas muestran con frecuencia sesgos más graves en la práctica que aquellas sin ninguna política formal. El texto ético funciona como insignia de buena conducta, no como guía operativa. No faltan principios declarados; falta el puente entre principio y práctica.

El Reglamento de IA europeo representa, por ahora, el intento más concreto de construir ese puente. Define riesgos por categorías, impone prohibiciones claras y establece multas con cifras reales. Tiene sus defectos: regula lo actual mientras la tecnología avanza, y exige auditorías que aún no escalan. Aun así, aborda la ejecución. Chapultepec, como otros marcos hemisféricos, se queda en intenciones declaradas.

Falta un nivel intermedio entre lo global y lo local. Un protocolo de escala Dunbar para ética en IA sería una prueba práctica: equipos de no más de quince miembros, con perfiles técnicos, comunitarios y legales, que conviertan cada principio en indicadores verificables para un ámbito concreto. No para el hemisferio entero. Para una ciudad, un sector o una institución. Con revisiones cada seis meses y publicación de resultados.

Este enfoque acepta lo que Le Bon intuyó: las masas no ejecutan, las personas sí. Y valida lo que Dunbar probó: la coordinación tiene barreras cognitivas que no se superan con declaraciones. El reto de la ética en IA no es escasez de principios. Es abundancia de ellos sin protocolos a escala humana.

Chapultepec ofrece un inicio sólido para la región. Pero el segundo paso —el que nadie escribe porque exige compromisos, fechas y riesgo de fracaso público— es el que determina si algo cambia. Mientras no llegue, los principios serán solo intenciones en papel, ignoradas por los sistemas de IA que dicen regular.

Las piedras no mienten, pero los historiadores a veces sí.


Fuentes:

1. OCDE Principles on Artificial Intelligence (2019) — oecd.org/digital/artificial-intelligence

2. European Union Artificial Intelligence Act (2024) — eur-lex.europa.eu

3. Dunbar, R. (1992). "Neocortex size as a constraint on group size in primates." Journal of Human Evolution

4. Le Bon, G. (1895). Psychologie des foules — ediciones modernas disponibles en español como Psicología de las masas

5. NIST AI Risk Management Framework (2023) — nist.gov/artificial-intelligence