El poder represivo de la inteligencia artificial

Escrito por Allie Funk, Adrián Shahbaz y Kian Vesteinsson

Regular la IA para proteger la libertad en Internet

Grandes descensos

A medida que la novedad de los chatbots de IA captaba gran parte de la atención del público, personas de todo el mundo luchaban contra una oleada de brutal represión digital. En ningún lugar esto fue más evidente que en Irán , que registró la mayor caída de puntuación durante el período de cobertura de este año. Tras la muerte bajo custodia de Jina Mahsa Amini, que desencadenó protestas nacionales en septiembre de 2022, el régimen restringió intermitentemente la conexión a internet y bloqueó WhatsApp e Instagram, las únicas plataformas internacionales de redes sociales accesibles en el país. Pero la represión estatal no se limitó a las protestas: dos personas fueron ejecutadas por presunta blasfemia tras compartir sus opiniones religiosas en Telegram.

Una pegatina que dice "Irán: Internet no funciona y están matando a la gente" vista en el reverso de una señal de tráfico.
La muerte bajo custodia de Jina Mahsa Amini desató protestas en todo Irán en septiembre de 2022. En respuesta, el régimen restringió intermitentemente la conexión a internet, bloqueó las redes sociales y reprimió brutalmente las manifestaciones. (Katherine Cheng/SOPA Images vía ZUMA Press Wire)

Las duras medidas represivas contra la libertad de expresión también fueron rutinarias en China , que conservó su título como el peor entorno para la libertad en internet por noveno año consecutivo. Entre las muchas personas encarceladas por compartir sus opiniones en línea, el destacado activista cívico y bloguero Xu Zhiyong fue sentenciado a 14 años de prisión en abril de 2023. Mientras tanto, los censores eliminaron las críticas a la economía en declive y el debate sobre la aprobación automática por parte de la legislatura de un tercer mandato presidencial sin precedentes para Xi Jinping. A pesar de una represión tan intensa, el pueblo chino mostró una resiliencia inspiradora. En noviembre de 2022, por ejemplo, las protestas por un incendio mortal en Urumqi, cuyo saldo se vio agravado, según se informa, por las medidas de confinamiento excesivamente restrictivas por la COVID-19, se convirtieron en uno de los desafíos más abiertos al gobernante Partido Comunista Chino (PCCh) en décadas, lo que desencadenó un raro cambio de política a nivel nacional por parte del gobierno central. La gente empleó un lenguaje creativo en las redes sociales para evadir a los censores, lanzando hashtags como “A4” y “ejercicio de papel blanco” para evocar las hojas de papel en blanco que los manifestantes levantaron para protestar contra la extrema censura del PCCh.

Myanmar fue el segundo entorno más represivo del mundo para la libertad en internet este año. Bajo el régimen militar desde el golpe de Estado de 2021, los usuarios de internet del país continuaron expresando su apoyo al movimiento de resistencia democrática o su dolor por las víctimas de la violencia de la junta, todo ello con un gran riesgo personal. El ejército y sus informantes utilizaron grupos de Telegram para compartir información sobre estos disidentes, lo que permitió a las autoridades identificarlos, detenerlos y, en algunos casos, hacerlos desaparecer por la fuerza. En el caso más flagrante del período de cobertura, el ejército ejecutó al destacado activista Kyaw Min Yu, más conocido como Ko Jimmy, en julio de 2022, tras arrestarlo por publicaciones a favor de la democracia en redes sociales. Las autoridades también forzaron la venta del último proveedor de servicios de internet en Myanmar con cierto grado de independencia a una empresa estatal en septiembre de 2022, allanando el camino para la implementación de la censura del régimen sin resistencia del sector privado.

En un récord de 55 países este año, las personas enfrentaron repercusiones legales por expresarse en línea. El número de países en los que las autoridades llevan a cabo arrestos generalizados e imponen penas de prisión de varios años por actividad en línea ha aumentado drásticamente en la última década, de 18 en 2014 a 31 en 2023. Bielorrusia recibió la tercera mayor disminución de puntaje del año, junto con Costa Rica y Nicaragua. Un tribunal bielorruso condenó a Maryna Zolatava y Liudmila Chekina, editora en jefe y directora general, respectivamente, de TUT.by, el medio de comunicación independiente más grande de Bielorrusia, a 12 años de prisión por sus reportajes. En varios casos en Nicaragua , el gobierno del presidente Daniel Ortega obligó a las personas que habían sido encarceladas en parte por su discurso crítico en línea a elegir entre permanecer en prisión o ser enviadas al exilio sin su ciudadanía. El obispo católico romano Rolando José Álvarez Lagos, a quien le revocaron la ciudadanía pero se negó a salir de Nicaragua, recibió una sentencia de 26 años de prisión por transmitir oraciones en las redes sociales sobre la represión de las autoridades contra el clero católico, entre otros delitos.

Las elecciones como foco de represión digital

Antes y durante los períodos electorales, muchos líderes en el poder criminalizaron amplias categorías de expresión, bloquearon el acceso a sitios de noticias independientes e impusieron otros controles sobre el flujo de información para influir en la votación a su favor. En el período previo a las elecciones de julio de 2023 en Camboya , a través de las cuales el veterano primer ministro Hun Sen diseñó una transferencia de poder a su hijo, las autoridades bloquearon el acceso a los medios de comunicación Radio Free Asia, Voice of Democracy y Cambodia Daily , consolidando aún más el control del régimen sobre el panorama de los medios en línea. El gobierno turco , liderado durante 20 años por Recep Tayyip Erdoğan y su Partido de la Justicia y el Desarrollo (AKP), promulgó una ley represiva sobre la desinformación y luego la utilizó contra periodistas y un miembro de la oposición antes de las elecciones generales de mayo de 2023. En noviembre de 2022, mientras el presidente tunecino Kaïs Saïed se preparaba para celebrar las primeras elecciones bajo una nueva constitución que ampliaba enormemente su propio poder, las autoridades amenazaron a un sitio de noticias independiente y detuvieron a su director por publicar informes que criticaban al gobierno.

Los líderes recién elegidos también buscaron rediseñar el entorno digital en su propio beneficio. Filipinas sufrió el segundo mayor declive en libertad en internet este año. Tras ganar las elecciones del año pasado, el presidente Ferdinand “Bongbong” Marcos Jr., hijo de un dictador de la Guerra Fría, firmó una ley en octubre de 2022 que obligaba a todos los filipinos a registrar sus tarjetas SIM con su nombre real, lo que socavó la comunicación anónima en lo que sigue siendo un entorno peligroso para periodistas y activistas. Marcos también mantuvo vigente una orden de bloqueo que restringía 27 sitios web, incluidos varios medios de comunicación conocidos por sus reportajes críticos; esta orden había sido impuesta por primera vez por el presidente saliente Rodrigo Duterte en junio de 2022, en virtud de una ley antiterrorista que ha sido una herramienta frecuente de extralimitación gubernamental.

A pesar de ser uno de los países con mejor desempeño en Libertad en la Red , Costa Rica experimentó una recesión en la libertad en internet bajo la nueva administración del presidente Rodrigo Chaves Robles. Según informes, la autocensura aumentó a medida que su gobierno acosaba a periodistas, políticos de la oposición y otros críticos. En un escándalo de gran repercusión, la ministra de Salud renunció en febrero de 2023 tras revelarse que había pagado a alguien para acosar a periodistas de tres medios de comunicación que informaron sobre la mala gestión gubernamental.

El próximo año se celebrarán varias elecciones trascendentales en todo el mundo, y algunos gobiernos ya están intentando suprimir el discurso desfavorable en línea. Previo a las elecciones presidenciales mexicanas de julio de 2024, el presidente Andrés Manuel López Obrador, cuyo mandato está limitado, ha utilizado su cargo para impulsar campañas de acoso en línea contra figuras de la oposición y socavar la autoridad electoral independiente, presumiblemente para asegurar la victoria del candidato de su partido.

Libertad en la red 2023

Puntos brillantes

Islandia se mantuvo como el mejor entorno para la libertad en internet por quinto año consecutivo, seguida de Estonia . Sri Lanka obtuvo la mayor mejora en su puntuación este año después de que las autoridades no repitieran el bloqueo de las plataformas de redes sociales impuesto en abril de 2022 durante las protestas masivas antigubernamentales. Si bien Gambia aún se clasifica como Parcialmente Libre, ha experimentado la mejora más significativa en la última década en Libertad en la Red . La trayectoria del país demuestra cómo los esfuerzos más amplios para reconstruir las instituciones democráticas tras un período de represión también pueden beneficiar la libertad en internet.

El activismo digital y la defensa de la sociedad civil impulsaron mejoras reales en materia de derechos humanos durante el período de cobertura. La movilización en línea impulsó el movimiento popular georgiano contra un peligroso proyecto de ley que habría obligado a las organizaciones de la sociedad civil a registrarse como «agentes extranjeros» si recibían más del 20 % de su financiación del extranjero. El proyecto de ley fue ampliamente criticado por sus similitudes con una ley rusa. Expertos en tecnología de Taiwán lograron una victoria en materia de transparencia después de que sus investigaciones llevaran a las autoridades a admitir que la policía había eludido el requisito de solicitar supervisión judicial para el bloqueo de sitios web.

El poder judicial siguió siendo un baluarte de la libertad en internet en muchos países. En junio de 2022, el máximo tribunal de Argentina reforzó el derecho de acceso a la información al anular el intento de una celebridad de eliminar enlaces a artículos periodísticos sobre su conexión con un escándalo de corrupción de los resultados de búsqueda de Google en el país. Tres meses después, la Corte Suprema de la India ordenó al gobierno que explicara cómo determina cuándo restringir el acceso a internet durante los exámenes escolares para combatir las trampas; el fallo podría aportar mayor claridad al turbio régimen de censura del país. Si bien el gobierno de Uganda introdujo restricciones represivas a la libertad de expresión en línea durante el período de cobertura —incluida una ley que impone penas de 20 años de prisión por compartir información sobre conductas sexuales entre personas del mismo sexo—, la Corte Constitucional intervino en enero de 2023 para derogar una sección de la Ley de Uso Indebido de Computadoras que se había utilizado para encarcelar a personas por su expresión crítica en línea.

También durante el período de cobertura, la acción política concertada contra la tecnología de software espía se vio impulsada por una avalancha continua de revelaciones sobre el grado en que defensores de derechos humanos, periodistas y funcionarios gubernamentales han sido blanco de estas herramientas. La administración del presidente estadounidense Joseph Biden se destacó como líder mundial en marzo de 2023, cuando emitió una orden ejecutiva que prohibía a las agencias federales utilizar software espía comercial que representara una amenaza para la seguridad nacional o la contrainteligencia, o que pudiera ser empleado por gobiernos extranjeros para violar los derechos humanos o atacar a estadounidenses. Meses después, las autoridades estadounidenses también añadieron a las empresas de software espía Intellexa y Cytrox a su Lista de Entidades, restringiendo su capacidad para hacer negocios con empresas estadounidenses en determinadas circunstancias. Finalmente, 11 democracias —entre ellas Estados Unidos, Costa Rica y varios países europeos— acordaron limitar el uso de software espía en el país, mejorar el intercambio de información con la industria y la sociedad civil, e impulsar a sus aliados a adoptar salvaguardias similares.

Libertad en la red 2023
La IA generativa potencia la desinformación
Los proveedores de desinformación utilizan imágenes, audio y texto generados por inteligencia artificial, lo que hace que la verdad sea más fácil de distorsionar y más difícil de discernir.

En los próximos años, estas redes de comentaristas humanos progubernamentales y empresas relacionadas sin duda aumentarán su dependencia de herramientas basadas en IA capaces de crear texto, audio, imágenes y vídeo en masa. La asequibilidad, la facilidad de uso y la accesibilidad de la tecnología de IA generativa orientada al consumidor han reducido la barrera de entrada al mercado de la desinformación. Quienes tengan los incentivos financieros o políticos necesarios podrán crear información falsa y engañosa con estas herramientas y luego aprovechar las redes existentes para distribuirla a gran escala. Como resultado, el espacio informativo se diluirá y se contaminará con invenciones, lo que perjudicará aún más el papel de internet como fuente de contenido fiable y diverso.

Subcontratación a empresas oscuras y personas influyentes

Los funcionarios estatales han cultivado redes de actores privados dispuestos a difundir contenido falso y engañoso. En lugar de asumir el riesgo político o desarrollar los recursos necesarios para participar en dicha actividad, una campaña electoral, un político o un ministerio pueden simplemente contratar a un influencer de redes sociales o una agencia de relaciones públicas que priorice los contratos lucrativos y las conexiones políticas sobre la probidad ética o legal.

El sector privado ruso ha desempeñado un papel constante en la difusión de desinformación sobre la invasión a gran escala de Ucrania por parte del Kremlin el año pasado. Una extensa y sofisticada operación conocida como «Doppelgänger» imitó a medios de comunicación alemanes, estadounidenses, italianos, británicos y franceses para difundir narrativas falsas y conspirativas sobre las sanciones europeas y los refugiados ucranianos, entre otros temas. Doppelgänger ha sido vinculado a un grupo informal de empresas y organizaciones sin fines de lucro con estrechos vínculos con las autoridades rusas. Cyber ​​Front Z, otra red rusa, utilizó Telegram para encargar a los comentaristas que compartieran cientos de publicaciones diarias en otras plataformas que atacaban a los críticos del presidente Vladímir Putin y promovían propaganda antiucraniana.

Israel alberga un creciente mercado de empresas de desinformación a sueldo. Una investigación de 2023 realizada por Forbidden Stories, The Guardian y Haaretz descubrió el trabajo de una empresa con sede en Israel conocida como Team Jorge, que, según se informa, utiliza una plataforma en línea que puede crear texto automáticamente a partir de palabras clave y luego movilizar una red de cuentas falsas en redes sociales para promocionarlo. La empresa, por ejemplo, difundió narrativas destinadas a poner en duda las graves acusaciones de que el exdirector de la unidad de investigaciones criminales de México estaba involucrado en tortura, secuestro y falsificación de pruebas. De manera similar, en agosto de 2022, Meta vinculó a la empresa israelí Mind Force con una red de cuentas activas en Angola . Principalmente publicaron en apoyo del gobernante Movimiento Popular para la Liberación de Angola y en contra del principal partido de oposición del país, y un empleado de Mind Force reveló públicamente que el gobierno angoleño era un cliente.

Los actores políticos también han trabajado para explotar la lealtad y la confianza que influencers, aparentemente apolíticos, han cultivado entre sus seguidores en redes sociales. Antes de las elecciones de febrero de 2023 en Nigeria , se pagó a influencers —uno de ellos, según se informa, recibió hasta 45.000 dólares— para difundir narrativas falsas que vinculaban a candidatos políticos con grupos militantes o separatistas. Durante las elecciones de agosto de 2022 en Kenia , los influencers manipularon las funciones de tendencias de las plataformas de redes sociales para impulsar hashtags políticos engañosos. Por ejemplo, el hashtag #ChebukatiCannotBeTrusted buscaba socavar la autoridad electoral independiente del país al sugerir que su líder apoyaba a un candidato presidencial por encima de los demás. Se descubrió que redes similares de influencers habían coordinado campañas de desinformación contra periodistas, jueces y miembros de la sociedad civil keniana.

Crear deepfakes para sembrar dudas, desacreditar a los oponentes y fabricar apoyo público.

Es probable que el creciente uso de la IA generativa agrave el impacto que estas redes existentes de comentaristas progubernamentales tienen en la integridad de la información y el debate público sano. Durante el período de cobertura, se utilizaron herramientas basadas en IA que pueden generar imágenes, texto o audio en al menos 16 países para distorsionar la información sobre cuestiones políticas o sociales. A los gobiernos y a los actores privados que emplean les toma tiempo incorporar nuevas tecnologías a la manipulación de contenido, y el predominio temprano de las herramientas en inglés puede ralentizar la adopción de la tecnología de IA generativa a nivel mundial. Pero es probable que este recuento de países también sea un subregistro. Los investigadores, periodistas y verificadores de datos tienen dificultades para verificar si el contenido es generado por IA, en parte porque muchas de las empresas involucradas no exigen el etiquetado. Obstáculos similares pueden impedir la atribución de la manipulación respaldada por IA a un creador específico.

Los períodos electorales y los momentos de crisis política sirvieron como focos de tensión para el contenido generado por IA. En mayo de 2023, en medio de un creciente conflicto político en Pakistán entre el ex primer ministro Imran Khan y el establishment respaldado por los militares, Khan compartió un video generado por IA que mostraba a una mujer enfrentándose sin miedo a la policía antidisturbios. Con ello, buscó reforzar la narrativa de que las mujeres de Pakistán lo apoyaban a él, no al inmenso y poderoso ejército del país. Durante las elecciones nigerianas de febrero de 2023, un clip de audio manipulado por IA se difundió en redes sociales, supuestamente implicando a un candidato presidencial de la oposición en planes para manipular las elecciones. El contenido amenazó con avivar la animosidad partidista y las antiguas dudas sobre la integridad del sistema electoral.

El contenido manipulado por IA también se utilizó para desprestigiar a los oponentes electorales en Estados Unidos. Cuentas afiliadas a las campañas del expresidente Donald Trump y del gobernador de Florida, Ron DeSantis, ambos aspirantes a la nominación del Partido Republicano para las elecciones presidenciales de 2024, compartieron videos con contenido generado por IA para socavar la candidatura del otro. Un video incluía tres imágenes inventadas de Trump abrazando al Dr. Anthony Fauci, quien lideró la respuesta del gobierno federal a la COVID-19 y sigue siendo muy impopular entre los críticos de las medidas de mitigación de la pandemia. Al colocar las imágenes inventadas junto a tres fotos auténticas, el video difuminó la distinción entre realidad y ficción para los votantes de las primarias republicanas. De igual manera, en febrero de 2023, un video manipulado que mostraba al presidente Biden haciendo comentarios transfóbicos se difundió rápidamente por las redes sociales. Presuntamente, fue creado para desacreditar a Biden entre los votantes que apoyan los derechos de las personas transgénero estadounidenses, que han sido objeto de ataques en gran parte del país.

Una computadora muestra una transmisión de House of News Español, un canal de noticias inexistente creado utilizando una herramienta de inteligencia artificial basada en suscripción disponible en línea.
Una computadora muestra una transmisión de House of News Español, un canal de noticias inexistente creado mediante una herramienta de inteligencia artificial por suscripción disponible en línea. (Freedom House)

Las empresas de inteligencia artificial ya están siendo reclutadas para campañas de desinformación vinculadas al Estado. A principios de 2023, los medios de comunicación estatales venezolanos distribuyeron videos en redes sociales que mostraban a presentadores de un canal internacional inexistente en inglés difundiendo mensajes progubernamentales. Los videos se produjeron utilizando una herramienta de inteligencia artificial en línea creada por Synthesia, lo que, según la empresa, constituye una violación de sus términos de servicio. La firma de investigación Graphika también ha vinculado a la empresa con una campaña para difundir desinformación pro-PCCh a través de la inexistente estación de noticias Wolf News a audiencias en Estados Unidos, aunque los videos en cuestión eran de mala calidad y no alcanzaron un alcance significativo.

Estos usos de deepfakes son consistentes con las formas en que actores políticos inescrupulosos han empleado durante mucho tiempo contenido informativo manipulado y bots de redes sociales para difundir información falsa o engañosa. Las herramientas de IA generativa seguirán desarrollando estas tácticas antiguas, pero puede que nunca las reemplacen por completo. Durante las elecciones de Turquía, un vasto ecosistema mediático progubernamental y ejércitos de bots de Twitter bombardearon el espacio informativo con contenido a favor del presidente Erdoğan y el AKP. Un video de amplia circulación consistía en clips empalmados para representar falsamente a un grupo militante kurdo proscrito que apoyaba al candidato presidencial de la oposición, Kemal Kılıçdaroğlu. Erdoğan promocionó el video como sustancialmente verdadero a pesar de parecer reconocer que podría haber sido manipulado. El incidente subrayó cómo el contenido inventado puede distorsionar un espacio informativo incluso cuando se sabe que no es auténtico. El creciente uso y la sofisticación de la IA generativa harán que estos videos parezcan más realistas y, por lo tanto, más difíciles de desacreditar en el futuro.

Las consecuencias de las campañas de desinformación generadas por IA

Incluso si los deepfakes son claramente inventados o se exponen rápidamente como tales, contribuyen al deterioro del espacio informativo. Pueden socavar la confianza pública en los procesos democráticos, incentivar a activistas y periodistas a autocensurarse y acallar la información fiable e independiente. Las imágenes generadas por IA que sensacionalizan la indignación sobre temas divisivos también pueden afianzar la polarización y otras tensiones sociales. En casos extremos, podrían incitar a la violencia contra personas o comunidades enteras. El impacto de la desinformación generada por IA se intensificará a medida que la calidad y la cantidad de la producción tecnológica superen la capacidad de los observadores, moderadores o reguladores para detectarla, desacreditarla o eliminarla.

Al igual que la represión digital en general, las campañas de desinformación generadas por IA victimizan y vilipendian desproporcionadamente a segmentos de la sociedad que ya están amenazados. La abrumadora mayoría de los deepfakes no consensuados que presentan imágenes sexuales se dirigen a mujeres, a menudo con el objetivo de dañar su reputación y expulsarlas de la esfera pública. Una campaña en línea que utilizó videos pornográficos manipulados por IA se utilizó para desacreditar a la destacada periodista india y crítica del gobierno Rana Ayyub ya en 2018. Durante el período de cobertura, Nina Jankowicz, experta estadounidense en desinformación, fue objeto de deepfakes pornográficos como parte de una campaña más amplia contra ella y su trabajo. Estos usos de deepfakes sexualizados representan una evolución retorcida de una práctica mucho más antigua: la distribución no consensuada de imágenes íntimas de mujeres activistas. Por ejemplo, durante el período de cobertura, una campaña de desprestigio que presentó imágenes íntimas no consensuadas de activistas prodemocracia y figuras de la oposición azerbaiyanas se extendió por Telegram, TikTok, Facebook y sitios de noticias progubernamentales.

El creciente uso de información falsa y engañosa generada por IA está exacerbando el desafío del llamado dividendo del mentiroso, en el que la cautela generalizada ante las falsedades sobre un tema determinado puede enturbiar las aguas hasta el punto de que las personas descreen de las declaraciones verdaderas. Por ejemplo, los actores políticos han etiquetado la información confiable como falsificación habilitada por IA, o han difundido contenido manipulado para sembrar dudas sobre contenido genuino muy similar. En abril de 2023, el estado indio de Tamil Nadu se vio sacudido por una controversia política después de que grabaciones filtradas capturaran a Palanivel Thiagarajan, un destacado funcionario del partido gobernante Dravida Munnetra Kazhagam del estado, menospreciando a sus colegas. Thiagarajan denunció que los clips de audio eran generados por máquina; investigadores independientes determinaron que al menos uno era auténtico. En Etiopía , después de que un miembro del gobernante Partido de la Prosperidad fuera asesinado en la región de Amhara en abril de 2023, los medios de comunicación afiliados al estado publicaron un audio que supuestamente vinculaba a un grupo de milicianos con el asesinato. Una organización publicó un informe alegando que las grabaciones de audio fueron manipuladas mediante inteligencia artificial; luego, otro grupo de verificación de datos acusó a la organización de ser falsa, poniendo en duda la afirmación de manipulación mediante inteligencia artificial.

Empresas como OpenAI y Google han impuesto restricciones para reducir algunos usos manifiestamente dañinos de sus chatbots. Sin embargo, investigadores han identificado técnicas para vulnerar las protecciones de los chatbots más populares, de modo que generen texto dañino, falso, discriminatorio o abusivo, incluyendo desinformación sobre la pandemia de COVID-19 y declaraciones que imitan la propaganda rusa sobre la invasión de Ucrania. Las aplicaciones de IA generativa también han producido declaraciones falsas y dañinas sobre miembros destacados de la sociedad civil. Los peligros de las campañas de desinformación asistidas por IA se dispararán a medida que actores maliciosos desarrollen nuevas formas de eludir las protecciones y explotar modelos de código abierto, y a medida que otras empresas lancen aplicaciones competidoras con menos protecciones.

Libertad en la red 2023

Controles clave de Internet

Para analizar las diferentes maneras en que los gobiernos buscan dominar la esfera digital, Freedom House monitorea la aplicación de nueve Controles Clave de Internet. Los datos resultantes revelan tendencias en la expansión y diversificación de estas restricciones a la libertad en internet.

Las innovaciones en el campo de la IA han permitido a los gobiernos aplicar una censura más precisa y menos detectable, minimizando la reacción pública y reduciendo el costo político para quienes están en el poder.

Si bien la IA ha permitido formas más sutiles y eficientes de eliminación de contenido, la censura directa sigue siendo generalizada. Los cortes de internet y los bloqueos de plataformas enteras de redes sociales siguieron siendo tácticas clave para el control de la información en todo el mundo. El número de países cuyos gobiernos impusieron bloqueos directos a sitios web que albergaban discursos políticos, sociales y religiosos alcanzó un récord sin precedentes de 41 este año. Las democracias no son inmunes a esta tendencia. Estados que desde hace tiempo han defendido la libertad en internet impusieron censura o coquetearon con propuestas para hacerlo, una respuesta inútil a las amenazas reales de injerencia extranjera, desinformación y acoso.

La IA generativa atrae la atención autoritaria

Las aplicaciones de IA generativa basadas en texto, recién lanzadas durante este período de cobertura, como ChatGPT y Bard, podrían permitir a los usuarios eludir la censura gubernamental, ya que los sistemas se entrenan con datos de internet global, incluyendo información que suele suprimirse en estados autoritarios. Los regímenes autoritarios más sofisticados técnicamente se enfrentaron a este riesgo, y algunos intentaron restringir el acceso a los nuevos chatbots. En febrero de 2023, los reguladores chinos ordenaron a los conglomerados tecnológicos Tencent y Ant Group que se aseguraran de que ChatGPT no se integrara ni se pudiera acceder a través de sus servicios, incluidas las aplicaciones de terceros en sus tiendas de aplicaciones. Apple eliminó más de 100 aplicaciones similares a ChatGPT de su tienda de aplicaciones china para cumplir con las normativas locales. De igual manera, las autoridades vietnamitas advirtieron a los ciudadanos contra el uso de ChatGPT, afirmando que «distorsiona», difama y se opone al Estado y al gobernante Partido Comunista de Vietnam (PCV).

Las primeras investigaciones indican que los resultados de los chatbots reflejan la censura incorporada en sus datos de entrenamiento, un recordatorio de que las herramientas de IA generativa influenciadas por fuentes de información controladas por el estado podrían servir como multiplicadores de fuerza para la censura. Los desarrolladores en algunos países represivos han comenzado a crear sus propios chatbots. Por ejemplo, varias empresas rusas, incluidas Yandex y Sistemma, han lanzado dichos productos. El gobierno chino ha buscado regular los datos de entrenamiento directamente: los productos chinos de IA generativa orientados al consumidor, como ERNIE Bot de Baidu y Tongyi Qianwen de Alibaba, deben implementar estrictos controles de contenido y garantizar la «veracidad, precisión, objetividad y diversidad» de los datos de entrenamiento, según lo definido por el PCCh. De hecho, los chatbots producidos por empresas con sede en China se han negado a interactuar con las indicaciones de los usuarios sobre temas sensibles como la Plaza de Tiananmén y han repetido como un loro las afirmaciones del PCCh sobre Taiwán.

Los intentos de los estados emergentes por controlar los chatbots reflejan esfuerzos previos por restringir las nuevas plataformas de redes sociales, liderados por los gobiernos autoritarios más sofisticados técnicamente del mundo. A medida que las herramientas basadas en IA generativa se vuelven más accesibles y ampliamente utilizadas, un número creciente de gobiernos se centrará en asegurar que refuercen, en lugar de desafiar, los controles de información existentes.

Ordenar a las plataformas que utilicen IA para la censura

En al menos 22 países, se exigió a las empresas de redes sociales, ya sea explícitamente o indirectamente mediante la imposición de plazos ajustados para la eliminación de material prohibido, que utilizaran sistemas automatizados de moderación de contenido. Si bien las plataformas de redes sociales utilizan dichos sistemas en todo el mundo, las leyes de muchos países prohíben formas de discurso político, social y religioso que deberían estar protegidas por las normas internacionales de derechos humanos. Al obligar a las plataformas a utilizar el aprendizaje automático para cumplir con las normas de censura, los gobiernos las obligan de hecho a detectar y eliminar el discurso prohibido de forma más eficiente. Este uso de la IA también enmascara el papel del Estado en la censura y puede aliviar el llamado dilema del dictador digital, en el que los líderes antidemocráticos deben sopesar los beneficios de imponer controles en línea frente a los costos de la indignación pública ante dichas restricciones.

En enero de 2023, estudiantes de Calcuta organizaron la proyección de un documental sobre el primer ministro indio, Narendra Modi. Las autoridades indias habían ordenado previamente a YouTube y Twitter que bloquearan la visualización en el país del documental, que abordaba la violencia comunitaria durante el mandato de Modi como ministro principal del estado de Gujarat.
En enero de 2023, estudiantes de Calcuta organizaron la proyección de un documental sobre el primer ministro indio Narendra Modi. Las autoridades indias habían ordenado previamente a YouTube y Twitter que bloquearan la visualización en el país del documental, que abordaba la violencia comunitaria durante el mandato de Modi como ministro principal del estado de Gujarat. (Dipayan Bose/SOPA Images/LightRocket vía Getty Images)

El primer ministro indio, Narendra Modi, y su partido, el partido nacionalista hindú Bharatiya Janata, han incorporado la censura, incluyendo el uso de sistemas automatizados, al marco legal del país. Las Normas de Tecnologías de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) exigen que las grandes plataformas de redes sociales utilicen herramientas de moderación basadas en IA para tipos de contenido ampliamente definidos, como discursos que puedan socavar el orden público, la decencia, la moralidad o la soberanía, integridad y seguridad del país, o contenido cuya eliminación haya sido ordenada previamente por las autoridades. Por ejemplo, a principios de 2023, las autoridades ordenaron a YouTube y Twitter restringir el acceso dentro de la India a un documental de la British Broadcasting Corporation sobre la violencia comunitaria durante el mandato de Modi como ministro principal del estado de Gujarat. Dado que el gobierno ordenó la restricción del documental, las Normas de TI exigen que ambas plataformas utilicen herramientas de escaneo automatizadas para filtrar cualquier publicación adicional que comparta la película. Mientras el país se prepara para las elecciones generales de 2024, el régimen de censura en expansión del gobierno está creando un campo de juego desigual al silenciar las críticas y los informes independientes sobre el partido gobernante.

En contextos más autoritarios, los sistemas de censura automatizados podrían cerrar el escaso espacio disponible para la expresión en línea. El gobierno vietnamita impone estrictos controles a las plataformas digitales para frenar la disidencia, la información independiente y otras formas de expresión política y social. Por ejemplo, se ha informado que las autoridades han obligado a Meta a eliminar todas las críticas a determinados funcionarios del CPV. Las regulaciones aprobadas en agosto de 2022 facultan al Ministerio de Seguridad Pública para bloquear las plataformas que no cumplan con el requisito de eliminar contenido «tóxico» en el plazo de un día tras ser notificadas, una amenaza que incentiva la eliminación generalizada a un ritmo que solo se puede lograr mediante la automatización. Desde entonces, las autoridades han exigido explícitamente que las empresas utilicen IA para eliminar el denominado contenido tóxico.

Estas medidas son cada vez más populares entre los gobiernos con menor capacidad tecnológica y regulatoria. En Nigeria, donde las autoridades han impuesto una censura significativamente menor que sus homólogas de Vietnam e India, un código de prácticas introducido en octubre de 2022 exige a las empresas eliminar contenido en un plazo de 48 horas tras la notificación de un organismo gubernamental. El código se introdujo después de que el entonces presidente Muhammadu Buhari impusiera un bloqueo de siete meses en Twitter debido a que la empresa eliminó una publicación en la que parecía amenazar con violencia a los separatistas. No está claro hasta qué punto se ha aplicado el código desde la elección del presidente Bola Tinubu en febrero de 2023.

Los sistemas automatizados desempeñan un papel positivo y de apoyo en la moderación de contenido a gran escala, incluyendo la detección de operaciones de influencia y la revisión de contenido peligroso y dañino —como imágenes de abuso sexual infantil y representaciones de violencia gráfica— que traumatiza a los moderadores humanos. Sin embargo, incluso cuando estos sistemas se utilizan adecuadamente, pueden marcar material en línea de forma excesiva o inconsistente, especialmente contenido en idiomas distintos del inglés o en jerga, lo que aumenta la probabilidad de que se eliminen expresiones políticas, sociales y religiosas. Para protegerse contra este riesgo y garantizar que los sistemas fortalezcan la integridad de la información, las leyes que rigen el contenido en línea y la IA deben basarse en principios de derechos humanos, exigir auditorías y una mayor transparencia en cuanto al uso y el impacto de los algoritmos, e incluir mecanismos de notificación, explicación, reparación y apelación.

Las formas convencionales de censura persisten

Especialmente en tiempos de crisis o protestas, las herramientas de moderación y filtrado basadas en IA pueden tener dificultades para gestionar la oleada de contenido inesperado y las expresiones de disenso. Por lo tanto, se seguirán utilizando formas de censura más contundentes. Durante el periodo de cobertura, la conectividad a internet se vio restringida en al menos 16 países. Uno de ellos fue Irán, donde el avanzado aparato de censura del régimen se vio desbordado por las movilizaciones masivas de 2022 y 2023, lo que obligó a las autoridades a cortar el servicio. Las autoridades sudanesas restringieron de forma similar el acceso a internet en abril de 2023, cortando canales de comunicación críticos en un momento en que cientos de miles de personas se encontraban en medio de intensos combates entre fuerzas paramilitares y militares rivales.

De los 70 países cubiertos por Freedom on the Net , los gobiernos de 41, una cifra récord, bloquearon sitios web que albergaban discursos políticos, sociales y religiosos. Roskomnadzor, el regulador de medios y telecomunicaciones de Rusia, exige a los proveedores de servicios de internet que instalen un sistema único de inspección profunda de paquetes (DPI) producido por el gobierno que permite el bloqueo de sitios web en todo el país. El Kremlin ha utilizado este sistema para bloquear plataformas globales de redes sociales, sitios de noticias ucranianos y sitios nacionales que contienen cualquier indicio de disidencia con respecto a su invasión de Ucrania. El período de cobertura también presentó un aumento del bloqueo ruso de sitios web que albergan contenido LGBT+, parte de un ataque más amplio contra esa comunidad en el país. El gobierno bielorruso, que ha ayudado a la agresión militar de Moscú, ha bloqueado más de 9.000 sitios web, incluidos una gran cantidad de sitios de noticias independientes y sitios espejo asociados que son mantenidos por periodistas bielorrusos que trabajan en el exilio.

Libertad en la red 2023

Los gobiernos bloquean cada vez más las plataformas digitales para obligarlas a cumplir con las regulaciones de internet. Las autoridades indonesias restringieron el acceso a Yahoo, la plataforma de juegos Steam, el procesador de pagos PayPal y varios otros sitios en julio y agosto de 2022 para forzar el cumplimiento de la Regulación Ministerial 5, que exige la eliminación de categorías excesivamente amplias de discurso prohibido en plazos ajustados. En Brasil , en abril de 2023, después de que Telegram no entregara los datos de los usuarios relacionados con grupos de chat neonazis, un juez dictaminó que la plataforma había incumplido los requisitos de retención de datos y ordenó su bloqueo total. Otro juez revocó la prohibición días después, imponiendo una multa diaria más proporcional a la empresa y determinando que el bloqueo generalizado era demasiado amplio e irrazonablemente restrictivo.

El veterano primer ministro camboyano, Hun Sen, diseñó una transferencia de poder a su hijo mediante elecciones en julio de 2023. Antes de la votación, las autoridades bloquearon el acceso a varios medios de comunicación independientes, incluida Radio Free Asia, en un esfuerzo por consolidar el control del régimen sobre el panorama mediático en línea.
El veterano primer ministro camboyano, Hun Sen, gestionó una transferencia de poder a su hijo mediante elecciones en julio de 2023. Antes de la votación, las autoridades bloquearon el acceso a varios medios de comunicación independientes, incluida Radio Free Asia, en un intento de consolidar el control del régimen sobre el panorama mediático digital. (Satoshi Takahashi/LightRocket vía Getty Images)

Resulta preocupante que algunos gobiernos democráticos que tradicionalmente han defendido la libertad de expresión consideraran o impusieran censura durante el período de cobertura, a menudo alegando inquietudes sobre interferencias extranjeras, fraude y seguridad en línea. Un proyecto de ley francés presentado en mayo de 2023 exigiría a los navegadores, no a los proveedores de servicios de internet, bloquear sitios web cuando así lo ordene un organismo administrativo, en lugar de una orden judicial. El proyecto de ley obligaría a desarrolladores de navegadores como Mozilla a crear un nuevo proceso técnico de bloqueo, que podría explotarse en Francia y en todo el mundo. Un mes después, resurgió la preocupación por una censura excesivamente amplia cuando el presidente Emmanuel Macron sugirió la posibilidad de bloquear o prohibir Snapchat, TikTok y otros servicios utilizados por la población más joven en medio de las protestas y la violencia relacionada que siguieron al asesinato policial de un adolescente de ascendencia argelina. Aunque no se implementaron tales restricciones, la aprobación retórica de un líder democrático de los bloqueos de redes sociales como respuesta adecuada a las protestas podría contribuir a legitimar esta forma de censura a nivel mundial.

Al otro lado del Atlántico, algunos políticos y gobiernos estatales de Estados Unidos presionaron para prohibir completamente TikTok, propiedad de la empresa tecnológica china ByteDance, alegando posibles amenazas a la seguridad nacional y el riesgo de que el gobierno chino accediera a los datos personales de los estadounidenses. Montana se convirtió en el primer estado en promulgar una ley que, a partir de enero de 2024, obliga a empresas como Apple y Google a impedir que los habitantes de Montana descarguen TikTok de sus respectivas tiendas de aplicaciones. Desde su aprobación en mayo de 2023, la ley ha enfrentado impugnaciones constitucionales. A nivel federal, por su parte, se han propuesto proyectos de ley que otorgarían al presidente Biden la autoridad legal para prohibir TikTok en todo el país. Si bien la propiedad de la plataforma por parte de ByteDance plantea serias preocupaciones en materia de derechos humanos y seguridad nacional, una prohibición socavaría el derecho constitucional a la libertad de expresión de millones de estadounidenses y, casi con toda seguridad, alentaría a otros gobiernos a limitar el acceso a plataformas específicas de redes sociales. Dicha prohibición tampoco abordaría las amenazas subyacentes que plantea TikTok, el ecosistema más amplio de recopilación de datos del sector tecnológico y las múltiples formas en que gobiernos extranjeros y actores no estatales pueden acceder y explotar la información de los estadounidenses. Un enfoque más integral, eficaz y respetuoso con los derechos humanos para abordar estos problemas incluiría una mayor supervisión regulatoria y nueva legislación para mejorar la protección de la privacidad, exigir la transparencia de la plataforma y las evaluaciones de riesgos, y prevenir prácticas deficientes de seguridad de datos.

Las lecciones aprendidas de la última década de deliberaciones sobre la gobernanza de Internet proporcionan una hoja de ruta para esta nueva era.

El PCCh ha invertido fuertemente en la industria de la IA, asegurándose de que las empresas en cuestión cumplan con sus prioridades autoritarias. La Administración del Ciberespacio de China (CAC), un poderoso organismo regulador, ha emprendido un esfuerzo de años para integrar los objetivos de censura del PCCh en los algoritmos de recomendación de contenido, los medios sintéticos y las herramientas de IA generativa del país. Por ejemplo, la CAC aprobó a 41 proveedores de servicios de IA generativa en junio de 2023, y cinco chatbots se lanzaron al público en agosto. Dichas aplicaciones deben adherirse o promover los «valores socialistas fundamentales» y excluir el contenido que el PCCh considera indeseable. Normas similares existen desde hace tiempo para las empresas chinas de redes sociales.

Desde 2021, la UE ha desarrollado un amplio marco que podría servir como modelo global para la gobernanza de la IA, al igual que el Reglamento General de Protección de Datos de Bruselas se ha convertido en una referencia clave para las leyes de protección de datos en todo el mundo. El proyecto de Ley de Inteligencia Artificial, cuyas negociaciones finales se encontraban en agosto de 2023, adaptaría las obligaciones en función del nivel de riesgo asociado a tecnologías específicas, como el reconocimiento facial, los algoritmos de recomendación en redes sociales, los chatbots, las herramientas de IA que pueden generar imágenes y vídeos, y el uso de la IA en campañas políticas. Los productos de IA que se consideren que presentan un riesgo inaceptable quedarían totalmente prohibidos, incluidos los sistemas de crédito social, las herramientas de vigilancia predictiva y ciertos usos de la vigilancia biométrica. Las tecnologías con un riesgo «alto» o «limitado» estarían sujetas a una serie de requisitos previos y posteriores a su comercialización, como el registro y una mayor transparencia.

En Estados Unidos, la administración Biden inició el desarrollo de la gobernanza de la IA impulsando la autorregulación de la industria. El Plan para una Carta de Derechos de la IA, publicado en octubre de 2022, estableció un conjunto de principios para guiar el diseño, el uso y la implementación de la IA. Las directrices incluyen protecciones contra prácticas abusivas con datos, sistemas ineficaces e inseguros, y discriminación algorítmica, que se produce cuando los sesgos incorporados en los datos de entrenamiento se reflejan en los resultados de un programa. El plan también exige que las empresas ofrezcan a las personas una alternativa humana a los sistemas automatizados cuando corresponda, e informen a las personas cuándo y cómo funcionan dichos sistemas. En julio de 2023, tras el período de cobertura, la administración obtuvo compromisos voluntarios de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI en relación con la seguridad de la IA. Si bien la autorregulación es un punto de partida importante, debe ir acompañada de una supervisión significativa. Al momento de escribir este artículo se esperaban más acciones ejecutivas, pero para garantizar que la IA fortalezca en lugar de dañar la libertad en Internet, los miembros del Congreso deberían trabajar con la sociedad civil y el poder ejecutivo para elaborar una legislación bipartidista que adopte un enfoque basado en los derechos para la gobernanza de la IA y transforme los principios rectores en leyes vinculantes.

Un déficit de confianza y seguridad disminuye la esperanza de autorregulación

Una serie de decisiones empresariales durante el periodo de cobertura arrojó aún más dudas sobre la disposición y la capacidad del sector privado para autorregularse. En varias plataformas importantes, los equipos centrados en el contenido, la integridad, la confianza y la seguridad —incluidos los encargados de establecer, mantener y aplicar normas de comportamiento de los usuarios— experimentaron una drástica reducción de personal y recursos. Algunas empresas también redujeron los mecanismos de transparencia, así como las políticas de contenido destinadas a reducir la difusión de información falsa y engañosa. Este cambio de prioridades sugiere que las empresas han olvidado las lecciones de controversias pasadas. La deficiente inversión de la industria en moderación de contenido en todo el mundo, la falta de atención a los llamamientos a una mayor cautela durante periodos electorales u otros periodos sensibles, y los ajustes inadecuados de los productos y las políticas en respuesta a las crisis han tenido el efecto de exacerbar la violencia online y offline.

En ningún otro lugar fue más drástica esta reducción y repriorización de recursos que en X, antes conocida como Twitter, tras su adquisición por el inversor tecnológico y emprendedor Elon Musk en octubre de 2022. Como parte de sus despidos masivos, la compañía despidió a expertos en confianza y seguridad, derechos humanos, políticas públicas y asuntos regionales en África, Asia y Latinoamérica. X también redujo su transparencia pública, por ejemplo, poniendo su interfaz de programación de aplicaciones (API) tras un muro de pago, reduciendo sus propios informes de transparencia sobre las demandas estatales y suspendiendo sus informes a Lumen, una base de datos que publica las órdenes gubernamentales de eliminación de contenido. Las preocupaciones económicas durante el período de cobertura también llevaron a Meta, Twitch de Amazon, Google, Snap y Microsoft a imponer despidos masivos, recortando drásticamente los equipos que trabajaban en temas como elecciones, ética de la IA o moderación de contenido. Muchos contratistas que se encargaban de la moderación de contenido, y que ya sufrían de salarios y recursos insuficientes, también fueron despedidos.

Las empresas parecen estar apostando a que pueden usar la IA para compensar la pérdida de experiencia humana, incluso cuando abordan los problemas que surgen de la propia IA.

Las empresas parecen apostar a que pueden usar la IA para compensar la pérdida de experiencia humana, incluso al abordar los problemas derivados de la propia IA. OpenAI ha propuesto usar ChatGPT para moderar contenido en línea y desarrollar reglas para la moderación de contenido. De hecho, la nueva generación de herramientas de IA generativa podría ser un recurso poderoso para revisar contenido que los revisores humanos encontrarían inquietante. Sin embargo, la supervisión humana sigue siendo fundamental para garantizar que los sistemas automatizados y sus eliminaciones de contenido no sean excesivamente amplios ni discriminatorios. La dependencia excesiva de grandes modelos de lenguaje para tareas de alto nivel que requieren contexto y matices, como la redacción de políticas de contenido, debe considerarse con escepticismo.

Hay mucho en juego en esta apuesta, especialmente de cara a las elecciones de 2024 en países clave y a medida que el contenido generado por IA se vuelve más frecuente. El despido de equipos regionales y legales implica una pérdida de conocimiento institucional sobre partidos políticos, redes de desinformación y sistemas regulatorios. Revertir las políticas de contenido diseñadas para contextualizar a los lectores debilitará la integridad de la información. Y la menor transparencia de las plataformas limitará la capacidad de la sociedad civil para analizar las tácticas de censura en evolución y exigir responsabilidades. En última instancia, algunas empresas podrían optar por despriorizar aún más el desarrollo y la aplicación de políticas fuera de sus mercados principales percibidos. Pero las decisiones que maximizan las ganancias a corto plazo mientras aceptan consecuencias negativas para los derechos humanos crearán en la práctica una experiencia en línea más peligrosa, socavarán el atractivo competitivo de un servicio y amenazarán el sólido entorno de estado de derecho del que dependen todas las empresas.

Garantizar que la IA promueva los derechos humanos en línea

La tecnología no puede sustituir la gobernanza. La mayoría de los modelos de IA son altamente opacos, dependen del procesamiento de miles de millones de datos y, en la práctica, están bajo el control de unas pocas empresas que revelan poco sobre su desarrollo y capacitación. Su estructura inescrutable contradice fundamentalmente valores democráticos como la transparencia, la proporcionalidad y la rendición de cuentas, y la información que aportan suele ser un foco de posibles sesgos. Las empresas que crean o implementan sistemas de IA, desde las startups más recientes hasta los gigantes más consolidados, deberían comprender los esfuerzos previos para fortalecer la responsabilidad de las plataformas, que han generado tanto éxitos como fracasos durante la última década. Sin embargo, dada la inclinación natural del sector privado a centrarse en la generación de beneficios, sus productos de IA requieren la supervisión de un público informado, un grupo global de organizaciones de la sociedad civil y organismos reguladores competentes.

Libertad en la red 2023

La regulación gubernamental debe apuntar a una mayor transparencia, proporcionar mecanismos eficaces de supervisión pública y priorizar la protección de los derechos humanos. Cuando se diseña y utiliza de forma segura y justa, la IA puede ayudar a las personas a evadir la censura autoritaria, contrarrestar la información falsa y engañosa, supervisar las elecciones para garantizar su libertad y credibilidad, y reforzar la documentación de las violaciones de derechos humanos. Para lograr una gobernanza de la IA eficaz y respetuosa de los derechos, la sociedad civil debe participar desde el principio. Las organizaciones sin fines de lucro, los periodistas de investigación y los activistas de derechos humanos han sido actores indispensables en las victorias pasadas para la libertad en internet. Entre otras contribuciones, pueden generar y mantener la presión pública e impulsar la acción de legisladores, reguladores y la industria.

Los responsables políticos y sus socios cívicos y del sector privado deben procurar no perder el impulso en la protección de la libertad en internet, especialmente a medida que la tecnología de IA intensifica las fuerzas que impulsan su declive multianual. De hecho, en la medida en que la IA simplemente exacerba los problemas existentes asociados con la represión digital, las soluciones existentes —garantizar que las empresas minimicen los datos que recopilan, reformar los marcos legales para la vigilancia y la censura, y fortalecer la alfabetización informacional y la responsabilidad de las plataformas— deben implementarse exhaustivamente. Una defensa eficaz de la libertad en internet requiere no solo desarrollar sistemas de gobernanza de la IA, sino también abordar las amenazas persistentes a la privacidad, la libertad de expresión y el acceso a la información que han corroído el entorno digital en general.

Este  artículo fue publicado originariamente por https://freedomhouse.org/.Lea el original.