Google está en el lado equivocado de la historia

Por  Matthew Guariglia

Google continúa demostrándonos por qué decidió abandonar su antiguo lema de ” No seas malvado “, a medida que se involucra cada vez más con el complejo militar-industrial. Recientemente, Google ha eliminado cuatro puntos clave de sus principios de IA. En concreto, previamente había indicado que la compañía no buscaría aplicaciones de IA que involucren (1) armas, (2) vigilancia, (3) tecnologías que “causen o puedan causar daño general” y (4) tecnologías cuyo propósito contravenga principios ampliamente aceptados del derecho internacional y los derechos humanos .

Esos principios ya han desaparecido.

En su lugar, la empresa ha escrito que las “democracias” deberían liderar el desarrollo de la IA y que las empresas deberían colaborar con los gobiernos “para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional”. Esto podría significar que el proveedor del motor de búsqueda más grande del mundo (la herramienta que la mayoría de la gente usa para descubrir las mejores recetas de tarta de manzana y para saber a qué hora cierra su cafetería favorita) podría dedicarse a crear sistemas de armas basados ​​en IA y a aprovechar su considerable potencia informática para la vigilancia .

Esta preocupante decisión de potencialmente beneficiarse de la guerra de alta tecnología, que podría tener graves consecuencias para la vida y la vida de personas reales, surge tras las críticas de la EFF , activistas de derechos humanos y otros grupos internacionales. A pesar de sus promesas y su firme compromiso con los derechos humanos, Google ha enfrentado críticas por su participación en el Proyecto Nimbus, que proporciona capacidades avanzadas de nube e inteligencia artificial al gobierno israelí, herramientas que un número cada vez mayor  de personas creíbles… Los informes sugieren que se están utilizando para atacar a civiles bajo vigilancia generalizada en los Territorios Palestinos Ocupados. La EFF declaró en 2024 : «Cuando una empresa hace una promesa, el público debería poder confiar en ella». En lugar de cumplir plenamente con sus compromisos previos en materia de derechos humanos, parece que Google ha cambiado sus prioridades.

Google, una empresa valorada en 2,343 billones de dólares , cuenta con infraestructura global y un enorme departamento legal, y parece estar aprovechando la coyuntura antihumanitaria actual. La quinta empresa más grande del mundo parece haber optado por aprovechar los pocos ingresos adicionales (en relación con sus ganancias y patrimonio neto) que provendrán de herramientas de vigilancia masiva y sistemas de armas mejorados con IA.

Y, por supuesto, sabemos por qué. Con el dinero del gobierno despilfarrando hacia contratistas de defensa, empresas de tecnología de vigilancia y otros proveedores relacionados con la seguridad nacional y la policía, las empresas tradicionales que absorben todos esos datos no quieren perderse el frenesí de la compra. Con contratos de mil millones de dólares en juego incluso para empresas más pequeñas que prometen tecnología mejorada con IA, parece que Google está dispuesto a sumarse a la competencia.

Además de la participación de Google y Amazon en el Proyecto Nimbus , que implicó tanto el almacenamiento en la nube de grandes cantidades de datos recopilados mediante vigilancia masiva como el análisis de dichos datos, existen muchos otros escenarios y productos en el mercado que podrían generar inquietud. La IA podría utilizarse para impulsar sistemas de armas autónomos que deciden cuándo y si apretar el gatillo o lanzar una bomba. El software de selección de objetivos puede implicar apuntar físicamente las armas a personas identificadas por geolocalización o mediante otros tipos de aprendizaje automático, como el reconocimiento facial u otra tecnología biométrica . La IA también podría utilizarse para filtrar cantidades masivas de inteligencia, incluidas comunicaciones interceptadas o información pública disponible en redes sociales e internet, con el fin de elaborar listas de personas que podrían ser blanco de ataques militares.

Que los sistemas de armas y vigilancia autónomos basados ​​en IA estén controlados por estados totalitarios o por estados que cumplen con la definición de “democracia” de Google no tranquiliza a quienes podrían ser atacados, espiados o asesinados por error debido a la tecnología de IA, propensa a errores. La IA no puede responsabilizarse de sus acciones. Si nosotros, el público, logramos sortear el secretismo corporativo, gubernamental y de seguridad nacional para descubrir estas fallas, las empresas recurrirán a una estrategia ya conocida: manipular los algoritmos y declarar el problema resuelto .

Instamos a Google, y a todas las empresas que seguirán su ejemplo, a que cambien de rumbo. Mientras tanto, los usuarios tendrán que decidir quién merece su negocio. Dado que el producto más exitoso de la compañía, su motor de búsqueda, está flaqueando , esa decisión se vuelve cada vez más fácil.

Este  artículo fue publicado originariamente por https://www.eff.org/.Lea el original.