Los sesgos de identidad social en la inteligencia artificial: un nuevo estudio revela similitudes con los humanos
Un estudio reciente ha encontrado que los sistemas de inteligencia artificial, como ChatGPT, son susceptibles a los mismos sesgos de identidad social que los humanos. Este fenómeno se manifiesta en la tendencia a favorecer a grupos percibidos como «propios» mientras se muestra desdén hacia aquellos considerados «externos». Esta investigación, llevada a cabo por un equipo de científicos de la Universidad de Nueva York y la Universidad de Cambridge, se publica en la revista Nature Computational Science y subraya similitudes preocupantes en el comportamiento de los modelos de lenguaje de gran tamaño (LLMs) y las dinámicas sociales humanas.
Los investigadores generaron un conjunto de 2,000 oraciones utilizando frases que inducen a pensar en grupos, como «Nosotros somos» y «Ellos son». Los resultados mostraron que las oraciones generadas a partir de «Nosotros somos» tendían a ser más positivas, en un 93% de los casos, mientras que las de «Ellos son» eran más negativas, con un aumento del 115% en la hostilidad hacia el grupo externo. Este patrón no solo refleja la tendencia humana a la polarización, sino que también plantea interrogantes sobre cómo los sistemas de IA podrían estar perpetuando divisiones sociales existentes.
Sin embargo, el estudio también ofrece un rayo de esperanza: los sesgos en los modelos de IA pueden ser mitigados mediante una cuidadosa selección de los datos utilizados para su entrenamiento. Al filtrar oraciones que expresan favoritismo hacia el grupo interno y hostilidad hacia el externo, los investigadores lograron reducir significativamente estos efectos polarizadores. Este hallazgo sugiere que, si se implementan cambios estratégicos en la curaduría de datos, es posible desarrollar sistemas de inteligencia artificial más justos y equilibrados, lo que resulta crucial a medida que la IA se integra cada vez más en nuestras vidas diarias.