La Unión Europea ha impuesto una multa histórica a TikTok por 345 millones de euros. La razón principal: fallos en la protección de menores en la plataforma. Sin embargo, esta sanción invita a reflexionar sobre el equilibrio entre seguridad infantil y el control del flujo de información digital, un tema que resuena con las dinámicas históricas que exploro en mi libro sobre cómo las sociedades manejan la comunicación.
El Digital Services Act, vigente desde 2024, impone reglas estrictas a las grandes plataformas para fomentar un internet más seguro, sobre todo para los más jóvenes. En esencia, busca regular el contenido y las prácticas de verificación. Pero esto también da a las autoridades europeas un rol clave en decidir qué se considera aceptable.
TikTok recibió la sanción por permitir cuentas de menores de 13 años, por hacer públicos por defecto los perfiles de adolescentes de 13 a 17, y por verificaciones de edad insuficientes. A primera vista, parece una medida lógica. Lo interesante es preguntarse si estas reglas se aplican de manera equitativa.
Esta multa coincide con la presión de la UE para avanzar en el "chat control", una propuesta que permitiría a las autoridades revisar mensajes en apps móviles antes de su cifrado. La justificación oficial es combatir el abuso infantil y el contenido dañino. ¿Es esto genuino o revela una postura hipócrita cuando se compara con el trato a otras plataformas?
En mi experiencia, he visto cómo las preocupaciones por la protección se usan para justificar controles más amplios. Piensa en la Edad Media, donde la Iglesia regulaba la lectura para "proteger" de ideas heréticas, o en la llegada de la imprenta, que llevó a censuras disfrazadas de bien común. Estos patrones históricos sugieren que el poder tiende a centralizarse bajo pretextos nobles.
Aquí surge una digresión: recuerdo cómo, en excavaciones arqueológicas que he estudiado, las sociedades con canales de comunicación diversos, como las antiguas redes de trueque en Mesoamérica, prosperaron más que aquellas con control centralizado. Esto me hace pensar que la diversidad digital podría ser clave para la innovación actual, no un riesgo a eliminar.
Plataformas chinas como TikTok enfrentan un escrutinio mayor que las estadounidenses o europeas. Facebook ha tenido escándalos serios con datos de menores y manipulación, pero sus multas han sido menores en proporción. ¿A quién beneficia esto? A competidores como Instagram Reels y YouTube Shorts, que ganan usuarios con cada restricción a TikTok. También fortalece a los reguladores europeos como guardianes globales del espacio digital.
Si el foco fuera solo la protección infantil, veríamos más énfasis en educación digital, controles parentales avanzados y algoritmos transparentes para todas las plataformas. En cambio, el chat control apunta a una vigilancia más amplia. Reconozco que proteger a los menores es crucial, pero estas medidas parecen priorizar el control sobre soluciones equilibradas.
La hipocresía se nota al comparar: Twitter, bajo Elon Musk, ha aligerado su moderación, pero no enfrenta el mismo rigor. Plataformas de videojuegos permiten interacciones sin supervisión entre adultos y niños, sin tanta presión. Lo que está en juego es el control de la narrativa digital. TikTok ha impulsado movimientos orgánicos, desde protestas hasta causas sociales, que desafían intereses establecidos.
La evidencia arqueológica respalda que sociedades resilientes permitieron voces diversas. Aquellas que centralizaron la información se estancaron. Hoy, un enfoque descentralizado podría fomentar innovación sin sacrificar seguridad.
No tengo todas las respuestas sobre cómo diseñar un sistema que proteja a los menores sin habilitar abusos de poder. Pero creo que hay alternativas: transparencia algorítmica obligatoria para todas las plataformas, verificación de edad sin vigilancia masiva, y educación que empodere a usuarios y padres. Esto es más complicado de lo que parece, y sigo explorando estas ideas.
La pregunta clave no es solo si TikTok merece la multa, sino por qué las reglas no son consistentes. ¿Estamos listos para priorizar la diversidad digital real, o preferimos una protección que podría limitar más de lo que ayuda? Invito a reflexionar sobre esto, buscando soluciones que equilibren seguridad y libertad.
Las piedras no mienten, pero los historiadores a veces sí.