Un reciente estudio dirigido por Minjoo Joo, de la Universidad de Sookmyung en Seúl, ha puesto de relieve un fenómeno interesante en la percepción pública de la inteligencia artificial (IA) en relación con las transgresiones morales. Publicado en la revista de acceso abierto PLOS ONE el 18 de diciembre de 2024, el estudio sugiere que los individuos tienden a asignar mayor culpa a las IAs cuando las perciben como poseedoras de una mente más humanizada.
Investigaciones anteriores ya habían indicado que las personas tienden a responsabilizar a las IAs en diversas situaciones de transgresiones morales, como en el caso de vehículos autónomos que atropellan a peatones o decisiones que causan daños en ámbitos médicos o militares. Además, se ha observado que la atribución de culpabilidad aumenta cuando los sujetos consideran que las IAs son capaces de conciencia, pensamiento y planificación, aspectos que se asocian con la percepción de una mente humana.
Metodología del estudio
Partiendo de estas premisas, Joo formuló la hipótesis de que las IAs que se perciben como dotadas de una mente similar a la humana recibirían una mayor parte de la responsabilidad en caso de transgresiones morales. Para comprobar esta teoría, la investigadora llevó a cabo varios experimentos en los que los participantes fueron expuestos a diferentes ejemplos de transgresiones morales en las que estaban implicadas IAs, como el etiquetado automático de fotos de manera racista. A través de una serie de preguntas, se evaluó la percepción de la mente de la IA involucrada y el grado de culpa asignado a dicha IA, a su programador, a la empresa responsable o al gobierno.
En algunos de estos experimentos, la percepción de la mente de la IA se manipuló proporcionando detalles como nombre, edad, altura y pasatiempos. Los resultados fueron claros: los participantes asignaron considerablemente más culpa a la IA cuando la percibían como poseedora de una mente más humanizada. Curiosamente, al repartir la culpa de manera relativa, los participantes tendieron a disminuir la responsabilidad de la empresa involucrada. Sin embargo, cuando se les pidió evaluar la culpa de cada agente de forma independiente, no se observó una reducción en la responsabilidad asignada a la compañía.
Estos hallazgos subrayan la importancia de la percepción de la mente de la IA en la atribución de culpa en situaciones de transgresiones morales. Joo también advierte sobre las consecuencias potencialmente perjudiciales de utilizar a las IAs como chivos expiatorios, instando a la comunidad científica a profundizar en la investigación sobre la atribución de culpa a las IAs.
La autora plantea una cuestión crucial: «¿Pueden las IAs ser responsabilizadas por transgresiones morales?» Su investigación indica que la percepción humanizada de las IAs incrementa la culpa hacia ellas, mientras que disminuye la responsabilidad de los actores humanos involucrados, lo que suscita serias preocupaciones sobre el uso de la IA en contextos éticos y legales.