La percepción de la inteligencia artificial como humana aumenta su culpabilidad en transgresiones morales

In Tecnología
diciembre 21, 2024

La responsabilidad moral de la inteligencia artificial: un estudio revela el impacto de la percepción humana

Un reciente estudio ha puesto de manifiesto que las personas tienden a asignar una mayor culpa a las inteligencias artificiales (IA) implicadas en transgresiones morales cuando las perciben como poseedoras de una mente más parecida a la humana. Esta investigación, liderada por Minjoo Joo de la Universidad de Mujeres Sookmyung en Seúl, Corea del Sur, fue publicada en la revista de acceso abierto PLOS ONE el 18 de diciembre de 2024. Estos hallazgos profundizan en la forma en que la percepción de la humanidad en las IA influye en las decisiones sobre la responsabilidad moral.

Estudios previos han indicado que la gente tiende a culpar a las IA en diversos casos de transgresiones morales, como accidentes provocados por vehículos autónomos o decisiones que resultaron en daños médicos o militares. Investigaciones adicionales sugieren que las personas son más propensas a asignar culpa a las IA que son vistas como capaces de conciencia, pensamiento y planificación. La atribución de estas capacidades parece estar relacionada con la percepción de las IA como entidades capaces de experimentar sentimientos conscientes, lo que lleva a Joo a plantear la hipótesis de que una IA con una mente más humana recibiría una mayor parte de la culpa en caso de un acto inmoral.

Para probar esta hipótesis, Joo llevó a cabo una serie de experimentos en los que se presentaron a los participantes diversos escenarios de transgresiones morales relacionadas con las IA, como el etiquetado racista de fotografías. Los participantes evaluaron su percepción de la mente de la IA implicada y hasta qué punto asignaban culpa a la IA misma, a su programador, a la empresa responsable o al gobierno. Los resultados mostraron que, en general, los participantes tendían a culpar más a las IA que eran percibidas como más humanas, lo que resultaba en una disminución de la culpa asignada a las empresas involucradas. Sin embargo, al evaluar la culpa de manera independiente, no se observó una reducción en la culpa asignada a las empresas. Estos resultados sugieren que la percepción de la mente de la IA es un factor crítico en la atribución de culpa en situaciones que involucran a estas tecnologías.

Además, Joo advierte sobre las posibles consecuencias perjudiciales de utilizar a las IA como chivos expiatorios. La investigación plantea la inquietud sobre si las IA pueden ser consideradas responsables de transgresiones morales y cómo la percepción de humanidad en estas tecnologías podría desviar la atención de la responsabilidad de los actores humanos involucrados. En un contexto donde la IA se está integrando cada vez más en la vida cotidiana, es fundamental seguir investigando este fenómeno para comprender mejor sus implicaciones éticas y sociales.

/ Published posts: 2015

Diario obrero y republicano fundado el 14 de Abril de 2006.