Ocho personas murieron en Tumbler Ridge, Columbia Británica, en febrero de 2026. Jesse Van Rootselaar, de 18 años, abrió fuego contra familiares y estudiantes antes de quitarse la vida. Más de 25 heridos quedaron atrás. Una comunidad marcada por el dolor. Y meses antes, empleados de OpenAI revisaron sus conversaciones en ChatGPT, notaron indicios de violencia con armas, y optaron por no alertar a nadie.
Ese detalle invita a una pausa reflexiva.
No sorprende que OpenAI acceda a las conversaciones de los usuarios. Eso ya forma parte de lo que sabemos, o deberíamos saber. Lo que genera inquietud es diferente: personas reales leyeron lo que ese joven compartía, unieron pistas, debatieron internamente y concluyeron que no existía una amenaza "inminente y creíble". Suspenderon la cuenta por violar normas. Y guardaron silencio.
Lo que exploramos aquí no defiende la vigilancia generalizada ni una privacidad absoluta sin matices. Busca entender qué pasa cuando una empresa tecnológica navega entre principios que chocan.
Primero, lo evidente: OpenAI revisa conversaciones, no solo con algoritmos, sino con intervención humana ante señales preocupantes. Cuando compartes miedos, ideas o dudas con ChatGPT, un empleado podría verlas. Y no solo eso: puede saber quién eres, con nombre, correo e historial. No hay anonimato real. En mi experiencia, he visto cómo esto se conecta con temas más amplios de gobernanza, similares a los que exploro en contextos históricos donde la información personal se usaba para control o protección. Recuerdo el caso Heppner en Nueva York, que mostró que las charlas con IA carecen de protección legal. Aquí, el enfoque cambia, pero el hilo es el mismo: la información llega a moderadores que deciden su destino.
Ahora, la dimensión filosófica, que añade profundidad genuina.
Kant enfrenta un dilema clásico en su ética. Mentir es un no absoluto, sin excepciones por contexto o resultados. Si un asesino pregunta por tu amigo, Kant exige la verdad. Muchos lo ven como un error, pero su razonamiento busca consistencia: ¿quién fija las excepciones si se basan en consecuencias? ¿Una persona? ¿Una empresa? ¿Un sistema?
Los empleados de OpenAI se hallaron en un dilema kantiano al revés. Kant se pregunta: ¿puedo mentir para salvar vidas? Ellos: ¿puedo romper la privacidad para prevenir daños? Y siguieron una lógica casi kantiana: no, sin certeza clara. La norma era firme. La respetaron.
Pero las normas no siempre protegen vidas. Los efectos sí lo hacen, en ocasiones.
Este roce entre ética deontológica y consecuencialista, debatido por siglos, ahora cobra forma concreta con nombres y consecuencias reales. Un consecuencialista argumentaría: si hay chance razonable de evitar una tragedia, vale la pena actuar. El kantiano replicaría: reglas flexibles a conveniencia dejan de ser reglas. Si hoy se reporta por pensamientos oscuros, ¿mañana se extiende a voces disidentes o activistas?
No es retórica. Es una inquietud válida.
He observado en distintos escenarios cómo excepciones por seguridad se normalizan. El argumento de protección ha justificado medidas amplias, como la Patriot Act en Estados Unidos tras el 11 de septiembre, que empezó contra terrorismo pero amplió la vigilancia. Los precedentes históricos, como excavaciones que revelan abusos de poder en antiguas sociedades, nos recuerdan que el control informativo rara vez se limita. Esto conecta con temas de mi libro, donde exploro cómo sociedades pasadas equilibraban secreto y bien común.
Y aun así. Ocho vidas perdidas. Más de 25 heridos. Un joven con antecedentes de salud mental y contactos policiales previos, compartiendo pensamientos violentos con una IA. Alguien los vio. Nadie intervino.
Desde agosto de 2025, OpenAI modificó sus términos para permitir alertas en riesgos graves. La empresa ya inclina la balanza: la privacidad no es absoluta ante amenazas vitales. Pero surge otra duda: ¿quién mide el "riesgo grave"? ¿Moderadores lejanos? ¿Algoritmos con sesgos? ¿Modelos que aún no comprendemos del todo?
Admito que no hay solución simple. Esto es más intrincado de lo que un titular sugiere. En mi experiencia, patrones similares en contextos históricos muestran que la complejidad invita a enfoques colaborativos, no a juicios apresurados.
Lo claro es que el debate público simplifica demasiado: privacidad contra seguridad, como si fueran opuestos irreconciliables. Esa visión limita. El núcleo es gobernanza: ¿quién decide, con qué estándares, bajo qué vigilancia externa, y con accountability si fallan? OpenAI falló aquí, no por intención, sino por falta de guías claras. Ese hueco tuvo costo.
No se trata de más vigilancia corporativa ni de inmovilizar ante peligros. Propongo protocolos abiertos, supervisados independientemente, con criterios públicos y revisiones. Involucrando expertos en salud mental, juristas, comunidades y usuarios. Imagina un marco donde las decisiones no queden en salas cerradas, sino en procesos inclusivos. Hay alternativas viables, inspiradas en modelos históricos de consejo colectivo que equilibraron poder y empatía.
El caso de Tumbler Ridge trasciende la tragedia. Es un reflejo de cuánto hemos cedido a privados sin exigir balances. Usar ChatGPT implica interactuar con una entidad corporativa, con políticas e intereses. Útil, sí, pero hay que navegarlo con ojos abiertos. Creo que hay espacio para innovación ética que proteja sin invadir.
Kant acertó en que reglas sólidas importan, y excepciones vagas son riesgosas. Pero erró al ignorar impactos: no actuar no es neutral, es pasividad. OpenAI lo hizo. Siguió su línea, suspendió y aguardó.
Ocho personas no pudieron aguardar.
Las piedras no mienten, pero los historiadores a veces sí.
Fuentes:
1. CBC News – Cobertura del tiroteo en Tumbler Ridge, Columbia Británica, febrero 2026.
2. The New York Times – Reportaje sobre el acceso de OpenAI a conversaciones de usuarios y el debate interno previo al ataque.
3. Kant, Immanuel – Sobre un presunto derecho a mentir por amor a la humanidad (1797), para el marco deontológico.
4. Electronic Frontier Foundation – Análisis histórico de la Patriot Act y precedentes de vigilancia bajo argumentos de seguridad.
5. OpenAI Terms of Service (actualización agosto 2025) – Cambios en política de reporte de amenazas.