El 20 de marzo, los editores voluntarios de Wikipedia aprobaron una nueva política con una votación de cuarenta a dos. La línea es clara: usar modelos de lenguaje grande para generar o reescribir contenido de artículos está prohibido. No es una restricción vaga ni una recomendación. Es una decisión institucional con peso real, tomada por las mismas personas que construyen, sin pago, la enciclopedia más consultada del mundo.
Lo que llama la atención no es la prohibición en sí. Revela cómo funciona realmente Wikipedia, y por qué ese modelo importa mucho más de lo que solemos reconocer.
La política tiene dos excepciones concretas. Un editor puede usar un modelo de lenguaje grande para refinar su propia escritura, siempre que verifique la precisión del resultado. También puede usarlo para traducción entre idiomas, si domina ambas lenguas. La herramienta como asistente está permitida. Como autor, no. Esa distinción no es arbitraria: es arquitectónica.
Wikipedia no opera como una base de datos neutral. Funciona como un modelo de rendición de cuentas distribuido. Cada contribución está ligada a un historial. Cada editor acumula reputación, puede ser sancionado, puede ser auditado. Cuando alguien escribe un párrafo, firma con su trayectoria dentro del modelo. Un modelo de lenguaje grande no tiene historial. No puede ser sancionado. No responde ante nadie. En la lógica interna de Wikipedia, no es un detalle técnico: es una ruptura estructural.
La razón de fondo no es que la IA escriba mal. A veces escribe bastante bien. La razón es que rompe la cadena de verificabilidad que sostiene toda la arquitectura de confianza del proyecto. Cuando un artículo de Wikipedia cita una fuente, hay un humano que tomó la decisión de incluirla, que puede ser cuestionado, que tiene que defender esa elección. Eso sostiene el modelo. Introducir un modelo de lenguaje grande como autor corta ese hilo. Un hilo cortado en una estructura distribuida no es un error menor: es el inicio del deterioro.
Cuando la rendición de cuentas se diluye, no colapsa de golpe. Se degrada despacio, desde adentro, hasta que la estructura ya no puede distinguir entre lo que es confiable y lo que solo parece confiable. Wikipedia evita eso al priorizar la trazabilidad humana.
Pero hay una tensión real que la política no resuelve del todo. La propia política admite que no sabe cómo detectar contenido generado por IA, y advierte explícitamente a los editores que no se basen en el estilo de escritura para identificarlo. Eso es honesto, y también es incómodo. Una prohibición sin mecanismo de verificación efectivo no es un proceso de control. Es una declaración de valores. Aunque suene a debilidad, puede ser exactamente lo que se necesita en este momento.
Las declaraciones de valores tienen una función que los mecanismos técnicos no pueden reemplazar: establecen qué tipo de comunidad quiere ser una institución. No resuelven el problema de detección, pero definen el estándar contra el cual se mide la conducta. La ambigüedad sobre si un editor puede usar IA en su proceso privado antes de publicar va a generar tensión, sí. Esa tensión es productiva. Obliga a la comunidad a seguir tomando decisiones conscientes sobre dónde está el límite.
Esto contrasta de forma interesante con el momento tecnológico que vivimos. Al mismo tiempo que directivos declaran que la inteligencia artificial general ya llegó y que la IA puede construir empresas de miles de millones de dólares, la enciclopedia más grande del mundo dice: no en nuestros artículos. La distancia entre esas dos posiciones no es técnica. Es sobre quién controla los estándares de lo que cuenta como conocimiento válido.
Los que promueven la IA como sustituto de la autoría humana tienen un argumento de eficiencia: más contenido, más rápido, con menos fricción. Wikipedia responde con un argumento de integridad: menos fricción significa menos trazabilidad, y menos trazabilidad significa menos confianza. La confianza, en un modelo de conocimiento colectivo, no es un lujo. Es el producto.
La historia de las instituciones registra esta regularidad. Cuando una organización sacrifica la rendición de cuentas por eficiencia operativa, el deterioro no siempre es visible de inmediato. Los romanos tardaron generaciones en notar que sus instituciones republicanas se habían vaciado de contenido mientras mantenían la forma. Los gremios medievales que abandonaron sus procesos de verificación de calidad para competir en precio terminaron destruyendo la reputación que los hacía valiosos. Las estructuras que sobreviven son las que mantienen dinámicas de responsabilidad, incluso cuando esas dinámicas son costosas.
Wikipedia es el experimento de conocimiento colectivo más ambicioso de la historia moderna. Decenas de miles de personas trabajando sin pago, verificando fuentes, corrigiendo errores, construyendo coherencia a lo largo del tiempo. Que ese experimento defienda la cadena de responsabilidad humana sobre la eficiencia tecnológica no es nostalgia. Es higiene institucional. Es el reconocimiento de que la velocidad de producción sin trazabilidad no produce conocimiento: produce ruido con apariencia de conocimiento.
Todavía no está claro cómo va a evolucionar esta política en los próximos años. La presión para adoptar herramientas de IA va a ser constante, y la comunidad de editores va a tener que seguir negociando esos límites. Hay aspectos de este debate que son genuinamente difíciles: ¿dónde termina el asistente y empieza el autor? ¿Qué pasa cuando la IA mejora tanto que la distinción de estilo desaparece por completo? Esas preguntas no tienen respuesta fácil.
Lo que sí está claro es que Wikipedia hizo algo que pocas instituciones se atreven a hacer: preguntó en voz alta qué vale más, la velocidad de producción o la trazabilidad de quien responde por lo que se dice. No resolvió el problema. Pero plantear la pregunta correcta, con honestidad sobre las propias limitaciones, ya es más de lo que hacen la mayoría de las instituciones cuando enfrentan una presión tecnológica nueva.
La prohibición puede parecer una línea defensiva. Pero vista desde la lógica de las estructuras, es algo diferente: es una institución que entiende qué la hace funcionar y decide protegerlo, aunque no tenga todas las herramientas para hacerlo cumplir. Eso no es anti-tecnología. Es exactamente lo contrario del colapso institucional que ocurre cuando nadie se hace responsable de nada.
Las piedras no mienten, pero los historiadores a veces sí.
Fuentes:
1. TechCrunch — Cobertura de la votación y política de Wikipedia sobre IA (marzo 2025)
2. Engadget — Detalle de las excepciones permitidas en la política de Wikipedia
3. SiliconANGLE — Análisis sobre la imposibilidad de detección de contenido generado por IA
4. Yahoo! News — Contexto sobre la cadena de verificabilidad como razón central de la prohibición