Cómo la Unión Europea construyó, en una década, una infraestructura de control del debate político que opera sin cara, sin fotografías y sin relato visible.
Hay una pregunta que las instituciones europeas prefieren no formular en voz alta: ¿quién decide qué narrativas pueden alcanzar la masa crítica suficiente para influir en el resultado de unas elecciones?
La respuesta no está en ningún manifiesto ni en ningún discurso. Está en la arquitectura técnica del debate público. Y esa arquitectura lleva una década construyéndose.
El origen: 2015 no fue solo la crisis migratoria
La historia oficial dice que la Unión Europea empezó a preocuparse por la desinformación digital tras las elecciones estadounidenses de 2016 y la campaña del Brexit. Es parcialmente cierto, pero incompleto.
En 2015, antes de que nadie hablara de interferencia rusa, la Comisión Europea creó el EU Internet Forum, un foro de coordinación entre reguladores y grandes plataformas tecnológicas bajo la dirección de la Dirección General de Interior. El objetivo declarado era combatir el terrorismo online. El alcance real fue expandiéndose hacia lo que los documentos internos llamaban borderline content: contenido fronterizo. Una categoría que, según los manuales operativos del propio foro, incluía retórica populista y críticas sistémicas a la integración europea.
No contenido ilegal. Contenido incómodo.
Entre 2016 y 2022, la Comisión operó mediante códigos de conducta teóricamente voluntarios: el Código contra el Discurso de Odio (2016) y el Código de Prácticas sobre Desinformación (2018). Establecieron canales directos de comunicación entre funcionarios europeos y ejecutivos de Google, Meta y Twitter fuera del escrutinio legislativo. Documentos internos de estas empresas, obtenidos mediante citaciones judiciales en Estados Unidos, revelan que sus directivos no percibían esa participación como voluntaria. La describían como una respuesta a presión activa para evitar regulación más dura.
Así funcionan los preámbulos de las infraestructuras de poder: parecen negociaciones, pero son ultimátums con plazos.
La maquinaria: lo que el DSA hace en la práctica
En 2024 entró en vigor la Digital Services Act, la pieza que convirtió las recomendaciones en obligaciones. Su concepto central es el riesgo sistémico: las plataformas con más de 45 millones de usuarios en la UE deben evaluar y mitigar los efectos de sus servicios sobre el discurso cívico y los procesos electorales.
El problema no es el objetivo. El problema es la elasticidad de la categoría.
Riesgo sistémico no está definido de forma unívoca. Puede llenarse de contenido político según la coyuntura. Las directrices que la Comisión publicó en marzo de 2024 para periodos electorales especifican que las plataformas deben ajustar sus sistemas de recomendación para reducir la viralidad de contenidos que puedan afectar la integridad de las elecciones. No contenidos ilegales: contenidos con potencial de impacto electoral.
Esto crea una tercera categoría que no existe en ningún código penal: legal pero sistémicamente arriesgado. Las plataformas no necesitan que un juez ordene nada. Basta con que un regulador señale un riesgo para que actúen, porque el coste de no hacerlo es una multa de hasta el 6% de su facturación global anual. Para Meta o Google, ese porcentaje se mide en miles de millones de euros.
Cuando el riesgo regulatorio de no censurar supera al de censurar, el resultado es la sobre-moderación. No por convicción: por economía.
Los trusted flaggers: quién tiene prioridad para señalar
El DSA diseñó una figura que concentra todo este poder en un punto opaco: el trusted flagger o señalador de confianza, regulado por el artículo 22 de la ley. Son entidades acreditadas que pueden notificar contenidos a las plataformas con prioridad absoluta sobre cualquier otro usuario. Sus notificaciones se procesan primero, antes que las de periodistas, partidos políticos, ciudadanos o tribunales.
El informe provisional del Comité Judicial de la Cámara de Representantes de Estados Unidos, publicado el 3 de febrero de 2026 y basado en documentación interna de diez grandes tecnológicas obtenida mediante citaciones judiciales, documenta más de cien reuniones a puerta cerrada entre la Comisión Europea y las plataformas desde 2020. El patrón se repite proceso electoral tras proceso electoral.
Este informe tiene una agenda política propia, y es necesario decirlo: procede de legisladores republicanos con interés en debilitar la regulación digital europea. Pero su valor no está en sus conclusiones, sino en la documentación que aporta: comunicaciones internas que las propias plataformas entregaron bajo citación judicial. Los hechos que describe no han sido refutados.
Rumanía: cuando el mecanismo anuló unas elecciones
El ejemplo más revelador no requiere inferencia. Ocurrió, tiene nombre y tiene fecha.
En diciembre de 2024, el Tribunal Constitucional de Rumanía anuló los resultados de la primera vuelta de las elecciones presidenciales. El candidato Călin Georgescu había obtenido una victoria sorpresiva. La justificación fue un supuesto ataque híbrido ruso y la manipulación de los algoritmos de TikTok a su favor.
Lo que hace el caso instructivo no es la anulación en sí, sino lo que se descubrió después: investigaciones de la Agencia Nacional de Administración Fiscal de Rumanía indicaron que la campaña en TikTok había sido financiada principalmente por actores domésticos, incluyendo el Partido Nacional Liberal, y no necesariamente por Rusia. La interferencia externa que justificó la anulación era, al menos en parte, interferencia interna disfrazada.
Esto no es corrupción electoral en el sentido clásico. Es algo más sofisticado: la legitimidad del resultado depende ahora también de que el clima informativo previo sea validado por los reguladores. La urna sigue siendo soberana, pero solo si el perímetro del debate ha sido previamente supervisado.
La pregunta que el sistema no responde
La Comisión Europea tiene una respuesta para todo esto, y no es disparatada: las democracias son vulnerables a la manipulación informativa, la interferencia extranjera existe, y algún tipo de regulación del espacio digital es inevitable en el siglo XXI. Todo eso es verdad.
El problema no es si regular. El problema es quién vigila a quienes definen qué constituye manipulación, con qué transparencia operan, y bajo qué control democrático actúan cuando toman decisiones en tiempo real durante una campaña electoral.
Para entender por qué esa pregunta importa, conviene detenerse en qué tipo de contenidos caen dentro del riesgo sistémico en la práctica. No estamos hablando solo de bulos fabricados o cuentas coordinadas desde el extranjero.
En ninguno de estos casos hubo una decisión judicial. En ninguno hubo transparencia sobre quién tomó la decisión ni con qué criterio. En varios, el contenido simplemente dejó de ser recomendado algorítmicamente sin que el autor recibiera notificación alguna.
Eso es lo que hace que el sistema sea difícil de rebatir y difícil de defender al mismo tiempo: no deja rastro visible, no genera jurisprudencia, y cuando alguien pregunta qué ocurrió exactamente, la respuesta institucional es que se aplicaron medidas de mitigación proporcionales conforme a la normativa vigente.
No es una conspiración. Es peor: es un procedimiento.
Lo que queda al final
La Unión Europea no necesita prohibir partidos si puede reducir la visibilidad de las razones por las que esos partidos crecen. No necesita falsificar votos si puede administrar el termostato del debate hasta que determinadas opciones no alcancen la temperatura necesaria para convertirse en agenda dominante.
Esto puede hacerse con las mejores intenciones. Puede hacerse convencido de que es necesario para proteger la democracia. Eso no lo hace menos preocupante. Lo hace más.



Comentarios
Publicar un comentario