La Generalitat de Catalunya presenta un método pionero para humanizar la inteligencia artificial y evitar la discriminación

In Ciencia y Tecnología
enero 29, 2025

Humanización de la Inteligencia Artificial en Cataluña

Uno de los retos más significativos en la implementación de sistemas de inteligencia artificial (IA) es garantizar que estos no perpetúen discriminaciones o sesgos en la toma de decisiones. Un caso que ha resonado en los pasillos de la Autoritat Catalana de Protecció de Dades (APDCat) es el de una familia que, a pesar de cumplir con los requisitos para recibir una subvención destinada a familias con hijos con discapacidad, fue rechazada debido a un sistema automatizado que consideró su renta familiar superior al límite establecido. Este incidente llevó a la APDCat a desarrollar una metodología innovadora en Europa para supervisar y humanizar el uso de algoritmos en la administración pública, con la finalidad de evitar situaciones similares en el futuro.

La reciente aprobación de un reglamento a nivel europeo, que exige la realización de evaluaciones de impacto en los derechos fundamentales para productos y servicios que utilizan inteligencia artificial, representa un paso importante hacia la regulación de esta tecnología. Sin embargo, desde la APDCat se señala que aún faltan directrices claras sobre cómo llevar a cabo estas evaluaciones. En este contexto, la propuesta catalana introduce un modelo de matrices que permite cuantificar el impacto de la IA, considerando dos dimensiones claves: la probabilidad de que se produzca un daño y la gravedad del mismo. Este enfoque busca proporcionar a los proveedores tecnológicos las herramientas necesarias para mitigar los riesgos asociados a sus sistemas.

El aumento de la preocupación por los efectos adversos de la IA ha llevado a diversas administraciones en todo el mundo a tomar medidas. En 2020, un tribunal en los Países Bajos determinó que un sistema de análisis utilizado por el gobierno discriminaba a la ciudadanía al rastrear fraudes. Igualmente, Nueva York reguló en 2023 el uso de algoritmos en procesos de selección laboral para evitar prejuicios raciales y de género. Expertos advierten también sobre los riesgos de utilizar modelos de IA desarrollados fuera de Europa, que no están adaptados a las particularidades del contexto europeo. La necesidad de establecer controles y regulaciones claras se vuelve, por tanto, esencial en un panorama tecnológico que avanza a gran velocidad.

/ Published posts: 6189

Diario obrero y republicano fundado el 14 de Abril de 2006.