El caso de Bradley Heppner invita a reflexionar sobre cómo la tecnología moldea nuestras protecciones legales. En febrero de 2026, el juez Jed S. Rakoff de Manhattan dictaminó que las conversaciones con Claude de Anthropic no gozan del privilegio abogado-cliente, ya que involucran a un "tercero": la inteligencia artificial. Heppner había usado la IA para generar informes sobre fraude fiscal que luego compartió con sus abogados, confiando en esa confidencialidad. El tribunal vio las cosas de manera distinta.

Este fallo se conecta con advertencias previas, como las de Sam Altman en 2025 sobre la vulnerabilidad de los chats en la nube. OpenAI ha enfrentado órdenes judiciales para entregar conversaciones de usuarios. En un mundo donde la IA forma parte de tareas cotidianas, surge una pregunta natural: ¿cómo asegurar la privacidad de lo que compartimos con estas herramientas? La respuesta podría estar en enfoques más cercanos, como los modelos locales, que devuelven el control a los usuarios.

El caso Heppner revela tensiones en el marco legal actual. El juez Rakoff argumentó que una IA en la nube introduce un tercero, rompiendo la confidencialidad tradicional entre abogado y cliente. Heppner consultó a Claude sobre estrategias fiscales, generando análisis que discutió con su equipo legal. Para él, era una extensión de su investigación; para el tribunal, un elemento externo.

Las implicaciones se extienden más allá de este incidente. No todos los chats terminan como evidencia, pero las empresas deben responder a solicitudes judiciales. Falta un marco legal claro, dejando a usuarios y profesionales en una posición incierta. En mi experiencia, patrones similares aparecen en contextos históricos donde la innovación choca con normas establecidas, como en las primeras adopciones de la imprenta, que alteraron el control de la información.

El contexto incluye demandas como The New York Times vs. OpenAI desde 2024, y multas a abogados por usar IA sin verificación en documentos. Estos eventos recuerdan cómo las tecnologías emergentes, al igual que las antiguas rutas comerciales que exponían secretos, generan presiones regulatorias inesperadas.

Cuando usas IA en la nube, como ChatGPT o Claude, los datos viajan a servidores remotos y se almacenan allí. Estos pueden ser accesibles mediante subpoenas. En noviembre de 2025, OpenAI tuvo que preservar millones de conversaciones para investigaciones. Cada consulta sobre salud, idea de negocio o reflexión personal queda registrada en un lugar que no controlas directamente.

Tratamos a las IA como aliados confiables, compartiendo detalles que reservaríamos para conversaciones privadas. A diferencia de interacciones con terapeutas, protegidas por leyes específicas, los chats con IA carecen de esas salvaguardas. Esto plantea preguntas sobre hasta qué punto asumimos una privacidad ilusoria.

Lo interesante aquí es que, mientras exploramos estas vulnerabilidades, surgen alternativas que invitan a la curiosidad. Pienso en cómo las civilizaciones antiguas protegían conocimientos sensibles mediante archivos locales, como las tablillas cuneiformes guardadas en templos, lejos de ojos externos. Hoy, algo similar ocurre con los modelos de IA locales.

Ejecutar una IA en tu propia computadora o servidor significa que todo el procesamiento sucede offline. No hay terceros, ni logs en servidores corporativos sujetos a órdenes judiciales. Es como mantener una charla en un espacio propio, en lugar de exponerla a oídos distantes.

Para profesionales como abogados o médicos que manejan datos sensibles, esto ofrece control real. Reduce el riesgo de accesos remotos no autorizados. Aun si las autoridades acceden a tu equipo, los registros están en tus manos, no dispersos en infraestructuras ajenas.

Claro, hay limitaciones. Como en el caso Heppner, si compartes los resultados de la IA con otros, esas comunicaciones podrían cuestionarse. No tengo todas las respuestas sobre cómo esto evolucionará legalmente, pero los modelos locales eliminan al menos el riesgo de exposición remota inadvertida. Es una capa de protección que vale la pena explorar, especialmente en un panorama donde la privacidad se redefine constantemente.

La tecnología para esto es accesible hoy. Herramientas como Ollama, Llama.cpp y LM Studio permiten correr modelos open-source, como Llama 3 o Mistral, en tu máquina. La instalación es directa: descargas el software, eliges un modelo según tu hardware y empiezas a usarlo sin conexión.

El proceso incluye instalar el runtime, descargar un modelo preentrenado —opciones van desde 7B hasta 70B parámetros— e interactuar. Para hardware modesto, un modelo como Llama 3.2 8B ofrece capacidades útiles. Con GPUs más potentes, obtienes resultados cercanos a los servicios comerciales.

En mi experiencia, empezar con algo simple revela lo intuitivo que puede ser. Recuerdo un momento en que probé una configuración básica y me sorprendió cómo fluía la interacción, sin preocupaciones por fugas de datos. Es experimental, pero invita a probar.

Este enfoque descentralizado evoca patrones históricos amplios. Tecnologías que inician centralizadas, como las redes de comunicación antiguas, se distribuyen cuando los usuarios buscan autonomía. La computación personal surgió de limitaciones de mainframes; internet se diseñó resistente a fallos únicos. La IA sigue un camino parecido, recordándonos que el control individual ha sido clave en la evolución tecnológica.

Las piedras no mienten, pero los historiadores a veces sí.