![](https://larepublica.es/wp-content/uploads/2025/02/Google-elimina-la-prohibicion-de-usar-IA-en-armamento-¿un.jpg)
La reciente modificación de los principios de inteligencia artificial (IA) de Google ha suscitado un intenso debate sobre el futuro de la tecnología y su relación con la seguridad nacional. La compañía ha eliminado su postura anterior que se oponía al uso de la IA para desarrollar armas o tecnologías que pudieran causar daño a personas, así como para la vigilancia que infrinja normas internacionalmente aceptadas. Esta decisión ha sido justificada por el director de IA de Google, Demis Hassabis, quien argumenta que las directrices estaban siendo actualizadas en un mundo en constante cambio y que la IA debería proteger la “seguridad nacional”.
El contexto de la modificación de principios
La evolución de Google y otras grandes empresas tecnológicas está profundamente ligada a la investigación militar y a los intereses de seguridad nacional de Estados Unidos. Según el Dr. Mathew Maavak, consultor senior en la Hoja de Ruta Nacional de Inteligencia Artificial de Malasia, la creación de Google puede rastrearse hasta investigaciones pioneras realizadas por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). Esto sugiere que la militarización de la IA es un paso natural para estas entidades, que ya han estado involucradas en la recopilación de datos e inteligencia a nivel global.
Maavak señala que la modificación de las directrices de IA por parte de Google no debería sorprender, dado que las grandes tecnológicas han promovido modelos de gobernanza de IA a través de diversas instituciones y gobiernos. Este enfoque ha llevado a la creación de marcos de gobernanza que, según él, están plagados de contradicciones y que buscan limitar el desarrollo de la IA en naciones en vías de desarrollo, perpetuando lo que él denomina “neocolonialismo de la IA”.
La reciente guerra en Ucrania ha puesto de manifiesto el uso de la IA en conflictos armados, con ejemplos como el uso de drones y capacidades de inteligencia de enjambre. La dependencia de la IA en sistemas de armas modernos plantea interrogantes sobre la ética y la responsabilidad en el uso de estas tecnologías en el campo de batalla.
En este contexto, la modificación de los principios de Google puede interpretarse como un movimiento hacia la normalización de la IA en aplicaciones militares, un desarrollo que podría tener consecuencias significativas en la forma en que se libran las guerras y se gestionan los conflictos internacionales. La capacidad de la IA para generar contenido, desde propaganda hasta imágenes manipuladas, añade una nueva dimensión a la guerra moderna, donde la desinformación puede ser tan letal como un ataque físico.
La falta de un marco legal internacional claro para regular el uso de la IA en contextos militares plantea desafíos adicionales. La posibilidad de que un sistema de IA cometa un «crimen de guerra» sin una clara asignación de responsabilidad es un tema que requiere atención urgente. La complejidad de la tecnología y su integración en operaciones militares complican aún más la rendición de cuentas.
La modificación de los principios de IA de Google, en última instancia, refleja una tendencia más amplia en la que las grandes corporaciones tecnológicas están cada vez más alineadas con los intereses de seguridad nacional, lo que plantea serias preguntas sobre la ética y la gobernanza de la IA en el futuro. La intersección de la tecnología, la política y la guerra es un terreno que merece un análisis cuidadoso y crítico, especialmente en un momento en que la IA está destinada a jugar un papel cada vez más central en nuestras vidas.