
En octubre de 2024, la Agencia de Reducción de Amenazas del Departamento de Defensa de Estados Unidos (DTRA, por sus siglas en inglés) lanzó un anuncio oficial en el portal gubernamental SAM.gov solicitando propuestas para el desarrollo de un sistema de inteligencia artificial capaz de monitorizar, rastrear y analizar narrativas digitales en redes sociales, medios electrónicos y fuentes abiertas a escala global. Este proyecto, titulado “Foreign Information Environment Characterization”, tiene como finalidad construir una capacidad operativa de análisis narrativo multicapa que integre datos técnicos, tácticos y semánticos con el fin de detectar “influencias maliciosas extranjeras” en el entorno informativo.
El sistema solicitado debe ser capaz de ingerir grandes volúmenes de datos en tiempo real —incluyendo texto, imágenes, vídeos y audio—, almacenarlos y normalizarlos, y procesarlos mediante técnicas avanzadas de lenguaje natural multilingüe. Esto permitiría identificar entidades clave, relaciones, sentimientos y argumentos emergentes. A partir de esa base, la inteligencia artificial deberá construir representaciones narrativas dinámicas que permitan comprender la evolución de discursos, identificar los actores que los promueven y mapear las redes de amplificación digital. Todo ello se complementará con una interfaz visual donde los analistas puedan explorar líneas de tiempo, mapas semánticos y conexiones entre mensajes, temas y emisores.
Además de rastrear campañas de desinformación desde actores hostiles, el sistema también busca caracterizar puntos de vulnerabilidad informativa en poblaciones objetivo, facilitando intervenciones narrativas o contramedidas informativas. Aunque el foco inicial se encuentra en países no alineados geopolíticamente con Estados Unidos, el diseño contempla su aplicación extensiva a cualquier región considerada de interés estratégico. El anuncio detalla módulos específicos como triage de narrativas emergentes, medición de su resonancia social, caracterización de amenazas y gestión de alertas.
Este tipo de tecnología no surge en el vacío. Desde hace años, diferentes agencias de defensa de EE. UU., incluyendo DARPA y la NSA, han financiado programas como SMISC (Social Media in Strategic Communication), Modeling Influence Pathways o SemaFor, todos orientados a detectar desinformación, coordinar respuestas narrativas y desarrollar análisis semánticos automatizados. El nuevo proyecto del DTRA se inscribe en esta línea, integrando capacidades de big data, análisis de redes sociales, inteligencia artificial y minería de opinión pública con propósitos militares.
La justificación oficial para este tipo de sistemas es la necesidad de protegerse frente a amenazas informativas extranjeras, pero su despliegue plantea interrogantes críticos. Aunque se insista en que la información proviene de “fuentes abiertas”, la capacidad para inferir patrones de comportamiento, creencias políticas o alineamientos ideológicos convierte a los ciudadanos —incluso de países aliados— en objetos de análisis militar. El paso de la vigilancia informativa a la intervención narrativa puede erosionar las bases de la libertad de expresión y de prensa.
Uno de los riesgos más evidentes es la ambigüedad con la que se define el concepto de “narrativa maliciosa”. ¿Quién decide qué es una amenaza? ¿Quién establece qué relato debe ser contrarrestado? En un contexto donde los discursos críticos o alternativos pueden ser percibidos como subversivos, estas herramientas tecnológicas corren el riesgo de utilizarse no solo para defenderse de propaganda hostil, sino para neutralizar opiniones divergentes, disidencias legítimas o movimientos sociales incómodos. Lo que se presenta como protección de la seguridad nacional puede derivar, sin controles democráticos, en mecanismos de censura sofisticada.
Además, la utilización de inteligencia artificial en este tipo de sistemas introduce problemas adicionales. Los algoritmos de aprendizaje automático no son neutros: reflejan los sesgos de quienes los diseñan y de los datos con los que se entrenan. Es probable que estos sistemas penalicen patrones lingüísticos o culturales no anglosajones, o que interpreten como amenazas aquellas narrativas que escapan a los marcos interpretativos oficiales. A ello se suma la posibilidad de errores, falsos positivos y decisiones automatizadas sin supervisión humana, con consecuencias sobre derechos individuales, reputaciones o movimientos sociales enteros.
La vigilancia narrativa, por su propia naturaleza, genera un entorno de autocensura. La mera conciencia de ser observado puede modificar el comportamiento de los usuarios, inhibir la crítica y empobrecer el debate público. El hecho de que una agencia militar dedique recursos a rastrear discursos civiles, fuera del contexto de un conflicto bélico declarado, es un indicio preocupante de cómo la lógica de la guerra informativa ha permeado todas las esferas de la vida digital. El ciudadano deja de ser un actor democrático para convertirse en un objetivo a mapear, clasificar y, eventualmente, neutralizar.
La tendencia no se limita a Estados Unidos. En Europa, la Unión Europea ha creado estructuras específicas para combatir la desinformación, como el East StratCom Task Force, una unidad del Servicio Europeo de Acción Exterior que opera desde 2015 con el objetivo de “predecir, identificar y contrarrestar campañas de desinformación” supuestamente vinculadas a actores estatales o no estatales. Uno de sus principales proyectos es la plataforma EUvsDisinfo, que recopila y clasifica contenidos que considera desinformativos, muchas veces sin transparencia sobre los criterios utilizados ni posibilidad de réplica. Aunque la UE presenta estas herramientas como mecanismos institucionales de defensa informativa, diversos analistas han advertido que actúan como filtros ideológicos, favoreciendo determinadas narrativas oficiales y estigmatizando voces críticas bajo la etiqueta de “pro-rusas”, “antivacunas” o “climatoescépticas”. En paralelo, varios Estados miembros han impulsado leyes contra la “manipulación informativa” que pueden derivar en restricciones a medios alternativos o persecución de activistas.
En el Reino Unido, la 77ª Brigada del Ejército británico —especializada en operaciones psicológicas y guerra de información— ha sido noticia por monitorizar redes sociales para influir en el discurso público, incluso durante la pandemia de COVID-19. Diversos reportajes periodísticos han revelado cómo esta unidad recopilaba publicaciones de ciudadanos y organizaciones para evaluar su “alineamiento” con las recomendaciones gubernamentales, una práctica que difumina peligrosamente la frontera entre seguridad nacional y control del pensamiento. A pesar de las críticas, estas prácticas se han expandido bajo el argumento de proteger la democracia frente a amenazas híbridas o campañas externas de desestabilización.
Sin embargo, el proyecto del DTRA da un paso más allá al aplicar directamente la infraestructura del aparato militar estadounidense al análisis automatizado y global del discurso civil, sin distinción clara entre lo estratégico y lo cotidiano, lo extranjero y lo doméstico, lo público y lo privado. No se trata ya de una respuesta institucional o diplomática a campañas concretas, sino de una arquitectura permanente de vigilancia narrativa que convierte la esfera digital en un campo de operaciones de la defensa nacional. La escala y ambición de este proyecto no tiene parangón en Occidente: propone el seguimiento continuo, automatizado y proactivo de ideas, relatos y opiniones en todo el mundo. Se normaliza así una lógica donde la libre circulación de ideas puede ser interpretada como amenaza geopolítica y donde la gestión del pensamiento se convierte en una función estratégica del Estado. Una lógica profundamente incompatible con los principios fundamentales de las democracias liberales.
Este cruce entre inteligencia artificial, vigilancia de masas y doctrina militar exige un debate urgente sobre los límites éticos, legales y democráticos de este tipo de desarrollos. No se trata solo de tecnología, sino de poder: de quién tiene derecho a definir la verdad, a controlar el relato y a intervenir en las percepciones colectivas. Si no se establecen garantías institucionales fuertes, estos sistemas corren el riesgo de consolidar una arquitectura tecnocrática de control del pensamiento público. Un futuro en el que el algoritmo decida qué se puede decir, quién puede decirlo y hasta dónde puede circular esa idea.
La libertad de expresión no se protege solo con declaraciones constitucionales, sino con vigilancia ciudadana sobre los mecanismos de control informativo. Y si el enemigo de hoy son las “narrativas hostiles”, mañana podrían ser las ideas disidentes. Es en ese umbral donde la democracia debe plantar cara.
