La Unión Europea y el control invisible: cuando proteger la democracia significa administrarla

La Unión Europea y el control invisible
Democracia · Regulación digital · Análisis

Cómo la Unión Europea construyó, en una década, una infraestructura de control del debate político que opera sin cara, sin fotografías y sin relato visible.

En un vistazo: la tesis
Desde 2015, la Comisión Europea ha construido una infraestructura de gestión del discurso político que comenzó como recomendación técnica y se ha convertido en obligación legal con multas de hasta el 6% de la facturación global de las plataformas.
El DSA introduce la categoría "legal pero sistémicamente arriesgado": contenidos que no violan ninguna ley pero pueden ser despriorizados algorítmicamente si un regulador los considera amenaza para la estabilidad institucional.
Ministerios del interior, ONGs financiadas con fondos públicos y organismos policiales actúan como "señaladores de confianza" con canal prioritario para retirar contenidos durante campañas electorales, sin control judicial en tiempo real.
El caso rumano de 2024 muestra el límite: unas elecciones completas fueron anuladas apoyándose en informes de inteligencia no auditables públicamente, mientras la Comisión activaba procedimientos contra TikTok antes de que la investigación concluyera.

Hay una pregunta que las instituciones europeas prefieren no formular en voz alta: ¿quién decide qué narrativas pueden alcanzar la masa crítica suficiente para influir en el resultado de unas elecciones?

La respuesta no está en ningún manifiesto ni en ningún discurso. Está en la arquitectura técnica del debate público. Y esa arquitectura lleva una década construyéndose.

El origen: 2015 no fue solo la crisis migratoria

La historia oficial dice que la Unión Europea empezó a preocuparse por la desinformación digital tras las elecciones estadounidenses de 2016 y la campaña del Brexit. Es parcialmente cierto, pero incompleto.

En 2015, antes de que nadie hablara de interferencia rusa, la Comisión Europea creó el EU Internet Forum, un foro de coordinación entre reguladores y grandes plataformas tecnológicas bajo la dirección de la Dirección General de Interior. El objetivo declarado era combatir el terrorismo online. El alcance real fue expandiéndose hacia lo que los documentos internos llamaban borderline content: contenido fronterizo. Una categoría que, según los manuales operativos del propio foro, incluía retórica populista y críticas sistémicas a la integración europea.

No contenido ilegal. Contenido incómodo.

Entre 2016 y 2022, la Comisión operó mediante códigos de conducta teóricamente voluntarios: el Código contra el Discurso de Odio (2016) y el Código de Prácticas sobre Desinformación (2018). Establecieron canales directos de comunicación entre funcionarios europeos y ejecutivos de Google, Meta y Twitter fuera del escrutinio legislativo. Documentos internos de estas empresas, obtenidos mediante citaciones judiciales en Estados Unidos, revelan que sus directivos no percibían esa participación como voluntaria. La describían como una respuesta a presión activa para evitar regulación más dura.

De la recomendación a la obligación: la secuencia
2015: EU Internet Forum. Objetivo declarado: terrorismo. Alcance real: contenido fronterizo, incluida la crítica a la UE.
2016–2018: Códigos de conducta voluntarios. Las plataformas los percibían como presión encubierta para evitar leyes más duras.
2022: Aprobación del DSA. Las recomendaciones se convierten en mandatos vinculantes con sanciones económicas reales.
2024: Entrada en vigor plena. La Comisión publica directrices específicas para periodos electorales.
Así funcionan los preámbulos de las infraestructuras de poder: parecen negociaciones, pero son ultimátums con plazos.

La maquinaria: lo que el DSA hace en la práctica

En 2024 entró en vigor la Digital Services Act, la pieza que convirtió las recomendaciones en obligaciones. Su concepto central es el riesgo sistémico: las plataformas con más de 45 millones de usuarios en la UE deben evaluar y mitigar los efectos de sus servicios sobre el discurso cívico y los procesos electorales.

El problema no es el objetivo. El problema es la elasticidad de la categoría.

Riesgo sistémico no está definido de forma unívoca. Puede llenarse de contenido político según la coyuntura. Las directrices que la Comisión publicó en marzo de 2024 para periodos electorales especifican que las plataformas deben ajustar sus sistemas de recomendación para reducir la viralidad de contenidos que puedan afectar la integridad de las elecciones. No contenidos ilegales: contenidos con potencial de impacto electoral.

Eliminación de contenidos considerados ilegales. Hasta aquí, ningún debate posible.
Reducción de alcance de contenidos legales evaluados como "arriesgados". Aquí empieza el problema.
Ajustes algorítmicos que limitan la difusión de narrativas "divisivas". Sin decisión judicial, sin notificación al autor, sin recurso visible.

Esto crea una tercera categoría que no existe en ningún código penal: legal pero sistémicamente arriesgado. Las plataformas no necesitan que un juez ordene nada. Basta con que un regulador señale un riesgo para que actúen, porque el coste de no hacerlo es una multa de hasta el 6% de su facturación global anual. Para Meta o Google, ese porcentaje se mide en miles de millones de euros.

Cuando el riesgo regulatorio de no censurar supera al de censurar, el resultado es la sobre-moderación. No por convicción: por economía.

Los trusted flaggers: quién tiene prioridad para señalar

El DSA diseñó una figura que concentra todo este poder en un punto opaco: el trusted flagger o señalador de confianza, regulado por el artículo 22 de la ley. Son entidades acreditadas que pueden notificar contenidos a las plataformas con prioridad absoluta sobre cualquier otro usuario. Sus notificaciones se procesan primero, antes que las de periodistas, partidos políticos, ciudadanos o tribunales.

¿Quién puede ser trusted flagger?
Organismos policiales europeos, incluido Europol.
ONGs financiadas con dinero público europeo o nacional.
Ministerios del interior de los estados miembros. En los Países Bajos, el propio ministerio que convoca las elecciones tiene canal prioritario para señalar contenidos sobre esas elecciones.
Redes de verificación acreditadas, muchas de ellas financiadas institucionalmente.

El informe provisional del Comité Judicial de la Cámara de Representantes de Estados Unidos, publicado el 3 de febrero de 2026 y basado en documentación interna de diez grandes tecnológicas obtenida mediante citaciones judiciales, documenta más de cien reuniones a puerta cerrada entre la Comisión Europea y las plataformas desde 2020. El patrón se repite proceso electoral tras proceso electoral.

El patrón electoral documentado
Eslovaquia 2023: reuniones específicas entre reguladores y plataformas en las semanas previas al voto, con listas de contenidos a monitorizar.
Parlamento Europeo 2024: protocolo de respuesta rápida activado formalmente, con coordinación en tiempo real entre verificadores y equipos de moderación de Meta, Google y TikTok durante toda la campaña.
Francia 2024: presión directa sobre algoritmos de recomendación para reducir difusión de contenidos calificados como divisivos.
Irlanda 2024 y 2025: intervenciones coordinadas con ONGs acreditadas como trusted flaggers durante los periodos de campaña.
Países Bajos 2025: mesa redonda organizada por la autoridad reguladora con organizaciones de la sociedad civil. El Ministerio del Interior participó en su condición de trusted flagger.
Este informe tiene una agenda política propia, y es necesario decirlo: procede de legisladores republicanos con interés en debilitar la regulación digital europea. Pero su valor no está en sus conclusiones, sino en la documentación que aporta: comunicaciones internas que las propias plataformas entregaron bajo citación judicial. Los hechos que describe no han sido refutados.

Rumanía: cuando el mecanismo anuló unas elecciones

El ejemplo más revelador no requiere inferencia. Ocurrió, tiene nombre y tiene fecha.

En diciembre de 2024, el Tribunal Constitucional de Rumanía anuló los resultados de la primera vuelta de las elecciones presidenciales. El candidato Călin Georgescu había obtenido una victoria sorpresiva. La justificación fue un supuesto ataque híbrido ruso y la manipulación de los algoritmos de TikTok a su favor.

Lo que hace el caso instructivo no es la anulación en sí, sino lo que se descubrió después: investigaciones de la Agencia Nacional de Administración Fiscal de Rumanía indicaron que la campaña en TikTok había sido financiada principalmente por actores domésticos, incluyendo el Partido Nacional Liberal, y no necesariamente por Rusia. La interferencia externa que justificó la anulación era, al menos en parte, interferencia interna disfrazada.

La Comisión Europea abrió procedimientos formales contra TikTok bajo el DSA el 16 de diciembre de 2024, antes de que la investigación sobre el origen de la financiación concluyera.
Se ordenó a TikTok congelar y preservar datos y revisar sus sistemas de recomendación. El instrumento diseñado para proteger democracias se activó sobre un caso cuya causalidad no estaba demostrada.
Resultado: un proceso electoral completo invalidado con base en informes de inteligencia no auditables públicamente.
Esto no es corrupción electoral en el sentido clásico. Es algo más sofisticado: la legitimidad del resultado depende ahora también de que el clima informativo previo sea validado por los reguladores. La urna sigue siendo soberana, pero solo si el perímetro del debate ha sido previamente supervisado.

La pregunta que el sistema no responde

La Comisión Europea tiene una respuesta para todo esto, y no es disparatada: las democracias son vulnerables a la manipulación informativa, la interferencia extranjera existe, y algún tipo de regulación del espacio digital es inevitable en el siglo XXI. Todo eso es verdad.

El problema no es si regular. El problema es quién vigila a quienes definen qué constituye manipulación, con qué transparencia operan, y bajo qué control democrático actúan cuando toman decisiones en tiempo real durante una campaña electoral.

Para entender por qué esa pregunta importa, conviene detenerse en qué tipo de contenidos caen dentro del riesgo sistémico en la práctica. No estamos hablando solo de bulos fabricados o cuentas coordinadas desde el extranjero.

Contenidos legales afectados por el mecanismo
Críticas a la política migratoria europea formuladas en términos que los verificadores calificaron de polarizantes, sin ningún elemento factualmente falso.
Artículos que cuestionaban la gestión institucional de la pandemia de COVID-19, incluyendo algunos que posteriormente resultaron estar bien fundamentados.
Contenidos que vinculaban decisiones de política energética europea con el aumento del coste de la vida, calificados como narrativas que erosionan la confianza en las instituciones.
Discursos electorales de partidos legales señalados como divisivos por redes de verificación financiadas con fondos públicos europeos.
Sátira política sobre líderes comunitarios marcada como potencialmente desestabilizadora.

En ninguno de estos casos hubo una decisión judicial. En ninguno hubo transparencia sobre quién tomó la decisión ni con qué criterio. En varios, el contenido simplemente dejó de ser recomendado algorítmicamente sin que el autor recibiera notificación alguna.

Eso es lo que hace que el sistema sea difícil de rebatir y difícil de defender al mismo tiempo: no deja rastro visible, no genera jurisprudencia, y cuando alguien pregunta qué ocurrió exactamente, la respuesta institucional es que se aplicaron medidas de mitigación proporcionales conforme a la normativa vigente.

No es una conspiración. Es peor: es un procedimiento.

Lo que queda al final

La Unión Europea no necesita prohibir partidos si puede reducir la visibilidad de las razones por las que esos partidos crecen. No necesita falsificar votos si puede administrar el termostato del debate hasta que determinadas opciones no alcancen la temperatura necesaria para convertirse en agenda dominante.

Esto puede hacerse con las mejores intenciones. Puede hacerse convencido de que es necesario para proteger la democracia. Eso no lo hace menos preocupante. Lo hace más.

Una democracia que necesita ser administrada para producir los resultados correctos ha dejado de ser una democracia en el sentido sustantivo del término.
Sigue celebrando elecciones. Pero ha convertido la incertidumbre —que es el corazón del proceso democrático— en un riesgo sistémico que hay que mitigar.
Las decisiones sobre qué narrativas merecen visibilidad se toman en reuniones a puerta cerrada, se ejecutan mediante ajustes algorítmicos invisibles, y llegan a los tribunales, cuando llegan, con meses de retraso.
No es una democracia abolida. Es una democracia supervisada. Y esa distinción importa cada vez menos cuando el supervisor decide qué se puede debatir.
La pregunta no es si la Unión Europea tiene razón sobre los riesgos de la desinformación. Probablemente la tiene en muchos casos. La pregunta es si una democracia puede sobrevivir al mecanismo que construyó para protegerse.
Fuentes principales: Digital Services Act (2022/2065) · Directrices de la Comisión Europea para periodos electorales (marzo 2024) · Informe provisional del Comité Judicial de la Cámara de Representantes de EE.UU. "The Foreign Censorship Threat, Part II" (febrero 2026) · Documentación sobre el caso electoral rumano de 2024–2025.

Comentarios