La aprobación y entrada en vigor del Reglamento Europeo de Servicios Digitales —más conocido como Digital Services Act (DSA)— marca un punto de inflexión en la arquitectura normativa de la Unión Europea. Presentada como una ley de “actualización” del comercio digital y la responsabilidad de las plataformas, la DSA ha sido, desde sus primeras versiones, un proyecto de control informativo a gran escala, diseñado para reordenar el flujo de información en Internet bajo una nueva lógica: la de la tutela institucional sobre el discurso público.
Lo que la DSA introduce no es solo un marco legal más riguroso para los intermediarios digitales, sino un nuevo ecosistema de censura reglada, desjudicializada y automatizada, basado en la cooperación estrecha entre la Comisión Europea, las grandes tecnológicas y una red de actores privados designados como autoridades epistémicas: los llamados “verificadores”, “observatorios de medios” y “denunciantes de confianza” (trusted flaggers).
Este sistema no actúa sobre el contenido ilegal en sentido estricto —como pornografía infantil o apología del terrorismo—, sino sobre un terreno mucho más resbaladizo: la desinformación, la “manipulación narrativa” y el “contenido perjudicial”. Conceptos intencionalmente ambiguos, definidos con suficiente vaguedad como para permitir la exclusión de cualquier discurso que desafíe los consensos establecidos en torno a temas sensibles: salud pública, geopolítica, cambio climático, identidad de género o política energética.
Desde el punto de vista técnico-jurídico, la DSA establece diferentes niveles de obligaciones según el tipo y tamaño de plataforma. Para las Very Large Online Platforms (VLOPs) —aquellas con más de 45 millones de usuarios en la UE— como Meta, Google, YouTube, Amazon, TikTok, X o Wikipedia, el régimen es especialmente estricto. Estas empresas deben implementar sistemas proactivos de detección de “riesgos sistémicos”, que incluyen la propagación de contenidos que “puedan influir negativamente en los procesos democráticos, la salud pública o la seguridad ciudadana”.
En la práctica, esto significa que empresas tecnológicas privadas, bajo amenaza de sanciones multimillonarias (hasta el 6 % de su facturación anual global), deben aplicar filtros preventivos sobre lo que se publica, promover “contenidos fiables” y actuar rápidamente ante alertas emitidas por autoridades nacionales o actores validados. Es decir, la censura ya no parte del Estado ni se ejecuta mediante resoluciones judiciales: se delega en algoritmos, empresas y organizaciones designadas.
Una de las piezas clave del modelo son los denunciantes de confianza, que gozan de acceso prioritario a los canales internos de moderación de contenido de las plataformas. Estos “flaggers” no son funcionarios públicos, ni órganos judiciales. Son en su mayoría organizaciones no gubernamentales, agencias verificadoras y medios “aliados”, reconocidos por la Comisión Europea o por autoridades nacionales. En España, organizaciones como Maldita.es, Newtral, Avaaz, o incluso algunas universidades vinculadas a proyectos de “alfabetización mediática”, pueden actuar como actores privilegiados en el proceso de retirada de contenidos.
Cuando un trusted flagger emite una notificación, las plataformas tienen la obligación de tratarla con prioridad y ejecutar medidas inmediatas. No se exige que el contenido sea ilegal: basta con que se considere potencialmente perjudicial para la percepción pública, el comportamiento del usuario o la confianza en las instituciones. Por tanto, un análisis crítico sobre las vacunas COVID, un artículo que cuestione el papel de la OTAN en Ucrania, o una investigación sobre los contratos farmacéuticos de la Comisión pueden ser retirados o desmonetizados, sin importar la calidad o veracidad del contenido, si se perciben como disruptivos.
Además, el reglamento impone a las plataformas la promoción activa de lo que denomina “fuentes fiables”. Estas fuentes suelen ser grandes medios consolidados (agencias como Reuters, EFE, AFP, AP), medios estatales (RTVE, France24, Deutsche Welle), u organizaciones verificadas por la IFCN (International Fact-Checking Network). El efecto estructural es la consolidación de una jerarquía informativa normativa, donde el contenido producido por ciertos actores tiene prioridad algorítmica y legal sobre el generado por medios alternativos, periodistas independientes o ciudadanos.
Esto afecta directamente a la economía de la información: los creadores que se apartan del consenso ven reducida su visibilidad, sus ingresos y su capacidad de crecer. Es un sistema de recompensa y castigo automatizado, disfrazado de neutralidad.
Otro elemento técnico especialmente preocupante es la obligación de cooperación con las autoridades en situaciones de crisis, lo que da pie a formas de censura en tiempo real. En el contexto del conflicto en Ucrania, por ejemplo, se han bloqueado directamente medios rusos o prorrusos —como Sputnik o RT— sin procedimiento judicial, apelando a la excepcionalidad del momento. La DSA permite replicar ese modelo ante cualquier situación que la Comisión considere “emergencia informativa”, lo cual abre la puerta a la intervención directa sobre plataformas, contenidos y narrativas en función de su utilidad o amenaza percibida para los objetivos políticos de la UE.
También se exige a las plataformas que den acceso a investigadores “autorizados” a sus datos internos para evaluar cómo se difunden los contenidos y cómo influyen en el comportamiento de los usuarios. Esta cláusula, en apariencia académica, permite a observatorios financiados por la UE —como el European Digital Media Observatory (EDMO)— monitorear y auditar la circulación de ideas, la viralización de hashtags, y la formación de comunidades críticas. No se trata solo de controlar lo que se dice, sino de mapear cómo se piensa, cómo se difunde y cómo se organiza la disidencia.
Todos estos elementos —trusted flaggers, priorización de fuentes, intervención en crisis, auditoría de datos, censura preventiva— conforman lo que podríamos llamar una infraestructura de gobierno epistémico, donde la verdad no se descubre, se decreta; donde la opinión pública no se forma libremente, sino dentro de límites tolerables; y donde el ciudadano deja de ser sujeto político para convertirse en receptor pasivo de verdades oficiales validadas por burocracias supranacionales.
El peligro no reside únicamente en que se retire contenido falso o dañino. El verdadero riesgo es el establecimiento de un régimen de verdad única, donde las plataformas actúan como ejecutores de una ideología dominante, las verificadoras como comisarios del discurso, y la ley como legitimadora de una censura sin contrapesos democráticos.
El debate público desaparece, sustituido por la repetición de mensajes preaprobados. La sospecha ya no se dirige contra el poder, sino contra quien lo cuestiona. Y el espacio digital, que prometía ser el gran espacio de libertad del siglo XXI, se convierte en una réplica controlada de las viejas estructuras de poder, ahora con una pátina de filantropía, “resiliencia” y gobernanza ética.
Lo más inquietante de todo esto es que se construye sin ruido, sin coerción visible, y con el aplauso de gran parte del espectro político y mediático. Bajo el pretexto de combatir la desinformación, Europa está institucionalizando la vigilancia, la censura y la penalización del pensamiento divergente.