Google ha decidido revisar de manera significativa sus principios sobre inteligencia artificial (IA), eliminando las restricciones previas que prohibían el uso de esta tecnología para el desarrollo de armamento y herramientas de vigilancia. Este cambio de política, anunciado el pasado martes, contrasta con la postura adoptada por la compañía en 2018, cuando estableció directrices en respuesta a las críticas por su implicación en proyectos militares, como el que llevó a cabo para el Departamento de Defensa de EE. UU., que utilizaba IA para procesar datos y identificar objetivos en operaciones de combate.
Las directrices originales de Google establecían claramente que la empresa no diseñaría ni desplegaría IA para su uso en armas o tecnologías que causaran daño a personas, ni para vigilancia que violara normas internacionalmente aceptadas. Sin embargo, la nueva versión de los principios de IA de Google ha eliminado estas cláusulas. En su lugar, el CEO de Google DeepMind, Demis Hassabis, y el alto ejecutivo de tecnología y sociedad, James Manyika, han publicado una nueva lista de los “principios fundamentales” de la compañía, que ahora se centran en la innovación y la colaboración, y afirman que “las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos.”
Implicaciones de la nueva política
Margaret Mitchell, quien anteriormente co-lideró el equipo de IA ética de Google, ha expresado su preocupación sobre la eliminación de la cláusula de ‘daño’, sugiriendo que esto podría indicar que la empresa ahora está dispuesta a trabajar en “desplegar tecnología que pueda matar personas directamente.” Esta inquietud se enmarca en un contexto más amplio de preocupaciones sobre los peligros que la IA puede representar para la humanidad.
Según un informe de The Washington Post, Google ha colaborado con el ejército israelí desde las primeras semanas de la guerra en Gaza, compitiendo con Amazon para proporcionar servicios de inteligencia artificial. Tras el ataque de Hamas a Israel en octubre de 2023, la división de nube de Google trabajó para facilitar el acceso de las Fuerzas de Defensa de Israel a herramientas de IA, a pesar de las afirmaciones públicas de la compañía de limitar su participación a ministerios gubernamentales civiles, según documentos internos de la empresa.
Este cambio en la política de Google se produce en un momento en que las preocupaciones sobre los riesgos de la IA son cada vez más apremiantes. Geoffrey Hinton, una figura pionera en el campo de la IA y galardonado con el Premio Nobel de Física 2024, advirtió el año pasado que esta tecnología podría llevar a la extinción humana en las próximas tres décadas, con una probabilidad que él estima en un 20%. Hinton ha señalado que los sistemas de IA podrían eventualmente superar la inteligencia humana, escapar al control humano y causar daños catastróficos a la humanidad. Por ello, ha instado a destinar recursos significativos a la seguridad de la IA y al uso ético de la tecnología, así como a desarrollar medidas proactivas.