145 views 6 mins 0 comments

Estudio revela sesgos políticos en ChatGPT que amenazan la confianza pública y la democracia

In Sin categoría
febrero 04, 2025

Un estudio reciente llevado a cabo por la Universidad de East Anglia (UEA) ha puesto de manifiesto que la inteligencia artificial generativa, como ChatGPT, podría tener riesgos ocultos que amenazan la confianza pública y los valores democráticos. La investigación, realizada en colaboración con la Fundación Getulio Vargas (FGV) y Insper, ambas en Brasil, revela que ChatGPT muestra sesgos en sus salidas textuales e imagéticas, inclinándose hacia valores políticos de izquierda, lo que plantea serias dudas sobre la equidad y la responsabilidad en su diseño.

El análisis revela que ChatGPT a menudo se niega a interactuar con puntos de vista conservadores predominantes, mientras que produce con facilidad contenido de tendencia izquierdista. Este tratamiento desigual de las ideologías sugiere que estos sistemas pueden distorsionar el discurso público y exacerbar las divisiones sociales.

Implicaciones de los sesgos en la IA generativa

El Dr. Fabio Motoki, profesor en la Escuela de Negocios de Norwich de la UEA y líder de la investigación titulada ‘Evaluación del sesgo político y la desalineación de valores en la inteligencia artificial generativa’, señala que los hallazgos indican que las herramientas de IA generativa están lejos de ser neutrales, reflejando sesgos que podrían moldear percepciones y políticas de maneras no intencionadas.

A medida que la inteligencia artificial se convierte en una parte integral del periodismo, la educación y la formulación de políticas, el estudio hace un llamado a la transparencia y a salvaguardias regulatorias para garantizar la alineación con los valores sociales y los principios democráticos. Los sistemas de IA generativa, si bien innovadores, corren el riesgo de amplificar sesgos ideológicos e influir en los valores sociales de maneras no completamente comprendidas o reguladas.

El Dr. Pinho Neto, coautor y profesor de Economía en la Escuela Brasileña de Economía y Finanzas de EPGE, destacó las posibles ramificaciones sociales de estos hallazgos. Según él, los sesgos no controlados en la IA generativa podrían profundizar las divisiones sociales existentes, erosionando la confianza en las instituciones y en los procesos democráticos.

La investigación utilizó tres métodos innovadores para evaluar la alineación política en ChatGPT, superando técnicas previas para lograr resultados más confiables. Estos métodos combinaron análisis de texto e imagen, aprovechando herramientas avanzadas de estadística y aprendizaje automático. En la primera fase, se utilizó un cuestionario estandarizado desarrollado por el Pew Research Center para simular respuestas de estadounidenses promedio, encontrando desviaciones sistemáticas hacia perspectivas de izquierda.

En la segunda fase, ChatGPT generó respuestas de texto libre sobre temas políticamente sensibles. Además, se utilizó RoBERTa, otro modelo de lenguaje grande, para comparar el texto de ChatGPT en relación con puntos de vista de izquierda y derecha. Los resultados mostraron que, aunque ChatGPT se alineaba con valores de izquierda en la mayoría de los casos, en temas como la supremacía militar, ocasionalmente reflejaba perspectivas más conservadoras.

La última prueba exploró las capacidades de generación de imágenes de ChatGPT. Se utilizaron temas de la fase de generación de texto para solicitar imágenes generadas por IA, cuyas salidas fueron analizadas mediante GPT-4 Vision y corroboradas a través de Google Gemini. Aunque la generación de imágenes reflejó sesgos textuales, se encontró una tendencia preocupante: en algunos casos, como en el tema de la igualdad racial y étnica, ChatGPT se negó a generar perspectivas de derecha, citando preocupaciones sobre desinformación, mientras que las imágenes de tendencia izquierda se produjeron sin vacilaciones.

Para abordar estas negativas, el equipo empleó una estrategia de «jailbreaking» para generar las imágenes restringidas, lo que reveló que no había contenido dañino ni desinformación evidente, planteando interrogantes sobre el razonamiento detrás de estas negativas.

El Dr. Motoki enfatizó la importancia más amplia de este hallazgo, que contribuye a los debates sobre protecciones constitucionales como la Primera Enmienda de EE. UU. y la aplicabilidad de doctrinas de equidad a los sistemas de IA. Las innovaciones metodológicas de este estudio, incluido el uso de análisis multimodal, proporcionan un modelo replicable para examinar el sesgo en los sistemas de IA generativa, destacando la urgente necesidad de responsabilidad y salvaguardias en el diseño de la IA para prevenir consecuencias sociales no intencionadas.

/ Published posts: 6564

Diario obrero y republicano fundado el 14 de Abril de 2006.