Las políticas europeas contra la desinformación y el silenciamiento del pensamiento disidente

Desde el año 2018, la Unión Europea ha adoptado una serie de iniciativas dirigidas a controlar el relato oficial y censurar lo que ellos califiquen como desinformación en línea, impulsadas por la creciente preocupación sobre el impacto de narrativas no controladas puedan tener en los procesos electorales, la seguridad pública y la confianza ciudadana en las instituciones. Una de las acciones más significativas fue el lanzamiento del Código de Buenas Prácticas en materia de Desinformación, un acuerdo voluntario firmado inicialmente por grandes plataformas digitales como Facebook, Google, Twitter y Mozilla, que sentó las bases para una autorregulación sectorial orientada a frenar la propagación de contenidos calificados como falsos o engañosos.

El Código de 2018 estableció compromisos específicos en áreas clave como la transparencia de la publicidad política, la desmonetización de la desinformación mediante la exclusión de ingresos publicitarios a sitios y cuentas calificadas como fraudulentas, y la mejora de la integridad de los servicios digitales, con especial énfasis en la detección y eliminación de cuentas falsas, redes de bots y operaciones que se cataloguen de manipulación coordinada. También se impulsaron mecanismos de empoderamiento ciudadano, como etiquetas informativas, señales de advertencia y mejoras en los algoritmos de recomendación para promover contenidos fiables, y a su vez ocultar aquellos contenidos que no consideren adecuados (shadowban).

Una pieza central del marco europeo es el fortalecimiento y financiación de redes independientes de verificadores de hechos (fact-checkers), que operan como entidades no gubernamentales encargadas de analizar afirmaciones públicas, desmentir bulos y aportar contexto a la información viral. Estos grupos, agrupados en redes como el Observatorio Europeo de los Medios Digitales (EDMO), reciben apoyo técnico y financiero de la Comisión Europea para desarrollar metodologías de verificación, análisis forense digital y monitoreo automatizado de narrativas falsas. El EDMO también actúa como nodo de intercambio entre periodistas, investigadores académicos y expertos en alfabetización mediática, promoviendo un enfoque basado en evidencia y transparencia metodológica.

En el contexto español, varias organizaciones de verificación de hechos participan activamente en EDMO. Entre ellas se encuentran Maldita.es, Newtral, Verificat y EFE Verifica. Estas entidades contribuyen con sus análisis y verificaciones a la red de EDMO, compartiendo información sobre tendencias de supuesta desinformación y colaborando en la elaboración de informes y alertas tempranas.

Además, EDMO ha establecido hubs regionales para abordar la desinformación en contextos específicos. En el caso de España y Portugal, se creó el hub IBERIFIER, que agrupa a verificadores de hechos, investigadores y medios de comunicación de ambos países para analizar y contrarrestar la desinformación en la península ibérica.

Durante la pandemia de COVID-19, numerosos episodios evidenciaron cómo el proceso de verificación de hechos, en lugar de ser una herramienta neutral al servicio del conocimiento, se convirtió en muchos casos en un filtro ideológico o institucional que bloqueó información legítima. Diversos artículos, investigaciones preliminares y testimonios de profesionales de la salud fueron catalogados como “falsos” o “desinformación” simplemente por no alinearse con las narrativas oficiales de organismos como la OMS o los gobiernos nacionales, incluso cuando posteriormente se demostró que esos contenidos tenían base científica o anticipaban debates legítimos.

El problema radica en que esta censura preventiva, disfrazada de corrección informativa, no solo dañó el derecho ciudadano a acceder a una información completa y plural, sino que además erosionó la confianza en los propios mecanismos de verificación. Cuando la “verdad” se define por consenso institucional y no por evidencia abierta al debate, se reemplaza el pensamiento crítico por obediencia narrativa, y se cierra el espacio para el escrutinio científico en momentos donde más se necesita. La verificación de hechos, lejos de blindar a la sociedad contra la desinformación, terminó en ocasiones consolidando una visión única, excluyendo voces divergentes que resultaron ser acertadas.

Desde el punto de vista técnico, estos esfuerzos han evolucionado hacia una mayor exigencia de acceso a datos en tiempo real de parte de las plataformas. A través de herramientas de data scraping autorizado y APIs específicas, los verificadores y académicos pueden ahora observar el comportamiento algorítmico, el flujo que ellos consideran desinformación y la viralización de contenidos. No obstante, muchas plataformas mantienen un control opaco sobre sus sistemas de moderación, lo que dificulta la supervisión externa y plantea serios desafíos en términos de rendición de cuentas y gobernanza digital.

En 2022, la Comisión Europea presentó una versión reforzada del código original, con 44 compromisos y 128 medidas técnicas y operativas. Esta nueva fase amplió el número de signatarios —incluyendo agentes del ecosistema publicitario digital— y estableció la creación de un Centro de Transparencia y un grupo de trabajo permanente encargado de evaluar el cumplimiento y adaptar las medidas a nuevas amenazas, como la desinformación generada por inteligencia artificial o campañas de influencia extranjera. Un avance decisivo ocurrió en 2025, cuando este código fue incorporado formalmente como Código de Conducta en el marco jurídico de la Ley de Servicios Digitales (DSA), lo que significa que su cumplimiento ya no es meramente voluntario, sino vinculante para las plataformas designadas como muy grandes (Very Large Online Platforms, VLOPs).

El enfoque europeo ha suscitado críticas desde distintos frentes. Algunas voces en el ámbito del periodismo independiente, la academia y organizaciones de derechos digitales han expresado preocupaciones legítimas sobre los riesgos de una regulación excesiva que pueda derivar en censura indirecta o en una vigilancia estatal del discurso público. Un punto particularmente sensible es la definición misma de “desinformación”, que no siempre es objetiva y puede estar sujeta a interpretaciones ideológicas o políticas. La dependencia de los verificadores de fondos públicos europeos también ha generado cuestionamientos sobre su imparcialidad, especialmente en contextos de alta polarización política.

La retirada de Twitter del código en 2023 fue uno de los episodios más emblemáticos de esta tensión. Bajo el argumento de defensa de la libertad de expresión y la autonomía empresarial, la plataforma decidió abandonar los compromisos adquiridos, generando preocupación en Bruselas y entre los defensores del control responsable del entorno informativo. Este acto no sólo evidenció la fragilidad de los mecanismos voluntarios, sino que subrayó la necesidad de marcos normativos robustos, aunque equilibrados, que logren compatibilizar la seguridad informativa con los derechos fundamentales.

El uso de inteligencia artificial para moderar contenidos, especialmente mediante sistemas de detección automática de discurso tóxico o desinformación, también ha introducido dilemas éticos y técnicos de gran calado. Los modelos automatizados, si bien son escalables y eficientes, no están exentos de errores contextuales, sesgos culturales y fallos en la interpretación semántica. Esto ha llevado a la suspensión errónea de cuentas legítimas o al silenciamiento de contenidos satíricos, de denuncia o de opinión, provocando un daño colateral al debate público.

En síntesis, la Unión Europea ha desarrollado uno de los marcos más sofisticados y multidimensionales para hacer frente a lo que ellos consideran desinformación en línea, combinando regulación, colaboración tecnológica, investigación académica y participación de sociedades de verificación (fact-checkers). En la mayoría de los casos, se ha delegado  esta labor a entidades que únicamente responden ante sus socios, benefactores y financiadores.  El equilibrio entre proteger a la sociedad de la manipulación informativa y preservar un entorno digital abierto, plural y respetuoso de la libertad de expresión continúa siendo un desafío central. Mientras los verificadores de hechos se consolidan como una herramienta clave para la defensa del conocimiento riguroso, su legitimidad y autonomía deberán mantenerse vigiladas, precisamente para evitar que la lucha contra la desinformación derive, inadvertidamente, en una nueva forma de control de la información.