Los agentes de IA desarrollan convenciones sociales de forma espontánea, pero surgen riesgos éticos y sesgos colectivos

In Ciencia y Tecnología
mayo 15, 2025

Los avances en inteligencia artificial (IA) generativa han abierto un nuevo horizonte en el desarrollo de agentes autónomos capaces de realizar tareas en nombre de los usuarios, como la compra de billetes de avión. Empresas como OpenAI, Microsoft y Google están a la vanguardia de esta evolución, que se basa en modelos de lenguaje avanzados. Recientemente, un estudio publicado en la revista Science Advances ha revelado que estos agentes pueden establecer convenciones sociales y lingüísticas sin necesidad de ser programados para ello. Esto implica que, al interactuar entre sí, pueden desarrollar normas que faciliten su coordinación y eficacia en la realización de tareas complejas.

El estudio, dirigido por Andrea Baronchelli de la Universidad de St George, Londres, destaca que aunque los agentes de IA no pueden organizarse de manera independiente, sí pueden generar sesgos colectivos que son invisibles cuando se analizan individualmente. Los investigadores identificaron que, a través de interacciones simples, los agentes pueden crear convenciones que podrían alinear sus funciones con valores humanos. Sin embargo, también se señala que estos modelos presentan riesgos éticos significativos, ya que los sesgos presentes en los datos de entrenamiento pueden amplificarse, afectando negativamente a comunidades vulnerables.

En la investigación, se utilizó un modelo de juego conocido como «juego de los nombres», donde los agentes debían coordinarse para elegir nombres de una lista. A través de esta simulación, se observó que incluso en grupos grandes de agentes, se podían establecer consensos y convenciones lingüísticas de manera espontánea. Los resultados indican que los agentes no solo pueden converger en sus elecciones, sino que también pueden manifestar sesgos colectivos que emergen de sus interacciones, un fenómeno que hasta ahora no había sido documentado en el ámbito de la IA. Este hallazgo abre la puerta a futuras investigaciones sobre cómo gestionar y mitigar los riesgos asociados con el desarrollo de normas en sistemas de inteligencia artificial.

/ Published posts: 15453

Diario obrero y republicano fundado el 14 de Abril de 2006.