Hay una pregunta que pocas personas se hacen cuando se ponen unas Ray-Ban de Meta: ¿quién más está viendo lo que yo veo?
La respuesta, según reportes recientes de investigadores y periodistas que han revisado las políticas de moderación de Meta, es incómoda. Los videos capturados por estos lentes inteligentes —fragmentos de la vida cotidiana, el interior de la casa, momentos con la familia, compras habituales— son revisados por moderadores humanos en Nairobi, Kenia, como parte del entrenamiento y la moderación de los modelos de inteligencia artificial de Meta. No es un algoritmo procesando imágenes. Son personas reales observando lo que el usuario ve.
Eso desplaza la discusión sobre privacidad. Ya no hablamos de datos abstractos en servidores remotos. Hablamos de ojos humanos que podrían captar el número de una tarjeta de crédito en una tienda, ver a una pareja o a niños en momentos personales, o recorrer el hogar desde una perspectiva íntima. El mismo modelo que se aplicó con los moderadores de contenido de Facebook en África —trabajadores contratados a bajo costo para manejar material difícil— se extiende ahora a videos en primera persona de la rutina diaria.
Los lentes Ray-Ban de Meta se promocionan como un accesorio elegante con capacidades tecnológicas. Capturan fotos, graban videos, transmiten en vivo y responden consultas con ayuda de IA. En la publicidad, Meta los describe como instrumentos de libertad: manos libres para capturar la vida sin complicaciones. Lo que queda fuera de los anuncios es la infraestructura detrás. Cualquier modelo de IA para conversación o visión por computadora necesita datos para aprender y supervisión humana para operar. Esa supervisión tiene una geografía definida: centros en Kenia y otros países africanos.
Estos centros de moderación no son un secreto en la industria tecnológica. Meta, Google, TikTok y otras plataformas han trasladado tareas de moderación a economías con salarios más bajos. En 2023, TIME publicó una investigación sobre los moderadores de OpenAI en Kenia, que manejaban contenido sensible por menos de dos dólares la hora. La lógica es económica: las empresas crean valor en centros como Silicon Valley y distribuyen los costos humanos donde son más baratos. No es una conspiración. Es una estructura que plantea preguntas éticas.
Lo que distingue a las Ray-Ban es el tipo de contenido que generan. Con un teléfono, hay una pausa natural: se saca del bolsillo, se activa la cámara, se decide grabar. Con los lentes, esa pausa desaparece. La cámara está siempre lista, siempre en el campo de visión, siempre potencialmente activa. Los usuarios registran —a veces sin darse cuenta— escenas que no capturarían con un teléfono: conversaciones privadas, instantes cercanos, documentos sensibles, pagos cotidianos. El diseño del dispositivo elimina la fricción que nos hace dudar antes de grabar.
Los modelos tecnológicos que simplifican la interacción del usuario casi siempre favorecen más al modelo que al individuo. Grabar se vuelve fácil, se graba más, se producen más datos, el modelo de IA se refina, el producto gana atractivo. Desde la ingeniería, es un ciclo eficiente. Desde la perspectiva de un usuario que ignora que su información financiera pasa por ojos en otro continente, es otra cosa.
Meta y empresas similares argumentan con el consentimiento: los usuarios aceptan los términos de servicio. Formalmente, es correcto. En la práctica, carece de profundidad. Los términos para los dispositivos de hardware de Meta abarcan decenas de páginas en lenguaje legal complejo. Pocos los leen completos. Están diseñados para ser aceptados, no comprendidos. Cuando el consentimiento surge de documentos que requieren formación legal, se convierte en un trámite para evadir responsabilidad.
Esto recuerda los debates sobre contratos de adhesión en el siglo diecinueve, cuando compañías de ferrocarriles y seguros usaban formularios estándar que los clientes firmaban sin negociar. Los tribunales tardaron décadas en corregir esos abusos. Con la tecnología digital, repetimos el proceso, pero más rápido de lo que los reguladores pueden responder. La Unión Europea ha avanzado con el RGPD y la Ley de IA, aunque la implementación avanza despacio. En México y América Latina, los marcos son aún más frágiles.
El problema central va más allá de la privacidad personal. Se trata de desequilibrios de poder. Meta accede a lo que ves. Tú no sabes quién lo revisa, cómo se usa o qué se deriva de ello. Ese flujo unidireccional de información sostiene los negocios de las mayores plataformas tecnológicas. Lo hemos visto con ChatGPT y la publicidad, con TikTok y datos de menores, con chats de IA sin salvaguardas legales. La tendencia no cambia: la intimidad humana como recurso.
La geografía de esta operación lo dice todo. Los datos nacen en países con alto poder adquisitivo, donde los dispositivos son asequibles. El procesamiento ocurre en naciones con costos laborales bajos. Las ganancias vuelven a accionistas y directivos en centros tecnológicos. Esta cadena reproduce desigualdades documentadas por siglos. La tecnología no las disuelve; las viste con interfaces modernas.
No tengo claro cómo abordarlo de manera integral. Las regulaciones son necesarias, pero no bastan solas. Las soluciones técnicas —cifrado robusto, procesamiento en el dispositivo, modelos de IA descentralizados— existen, aunque las grandes plataformas no tienen incentivos para adoptarlas. La información sigue siendo la defensa inicial: saber que los lentes no son enteramente privados, que la comodidad tiene un costo oculto, que lo 'mágico' implica trabajo humano en algún lugar.
Antes de adquirir un dispositivo así, la pregunta relevante no es su estilo ni sus funciones. Es quién más accede a lo que captura, en qué condiciones, y qué sucede con esa información después. Preguntas que ninguna publicidad responderá.
Las piedras no mienten, pero los historiadores a veces sí.
Fuentes:
1. TIME Investigation: "OpenAI Used Kenyan Workers on Less Than $2 Per Hour" (2023) — documenta las condiciones de moderación externalizada en Kenia
2. Meta Terms of Service for Ray-Ban Smart Glasses — políticas de uso de datos y moderación de contenido
3. European Data Protection Board — directrices sobre dispositivos portátiles y procesamiento de datos personales
4. The Guardian: "Content moderators at TikTok, Facebook and YouTube" — patrón de externalización de moderación a países de economías emergentes
5. Electronic Frontier Foundation (EFF) — análisis de consentimiento en contratos de adhesión digitales