193 views 10 mins 0 comments

La falta de regulación en IA podría desestabilizar los mercados financieros, advierten expertos

In Sin categoría
marzo 27, 2025

A medida que Canadá avanza hacia una regulación más estricta de la inteligencia artificial (IA) con la propuesta de la Ley de Inteligencia Artificial y Datos (AIDA), su vecino del sur, Estados Unidos, parece adoptar un enfoque opuesto. Mientras que AIDA, parte del Proyecto de Ley C-27, busca establecer un marco regulatorio que mejore la transparencia, la responsabilidad y la supervisión de la IA en Canadá, algunos expertos consideran que la iniciativa no va lo suficientemente lejos.

Por otro lado, el presidente de Estados Unidos, Donald Trump, ha impulsado la desregulación de la IA. En enero, firmó una orden ejecutiva destinada a eliminar cualquier barrera regulatoria percibida que obstaculizara la «innovación en IA estadounidense». Esta orden ejecutiva reemplaza a la anterior emitida por el presidente Joe Biden.

Es importante destacar que Estados Unidos fue uno de los pocos países que no firmó una declaración global en febrero para asegurar que la IA sea «abierta, inclusiva, transparente, ética, segura y confiable». La eliminación de salvaguardias en la IA deja a las instituciones financieras vulnerables, lo que podría aumentar la incertidumbre y, en el peor de los casos, incrementar el riesgo de un colapso sistémico.

El poder de la IA en los mercados financieros

El potencial de la IA en los mercados financieros es innegable. Esta tecnología puede mejorar la eficiencia operativa, realizar evaluaciones de riesgo en tiempo real, generar mayores ingresos y prever cambios económicos predictivos. Investigaciones recientes han demostrado que los modelos de aprendizaje automático impulsados por IA no solo superan los enfoques convencionales en la identificación de fraudes en estados financieros, sino que también detectan anomalías de manera rápida y efectiva.

Un estudio realizado por mis co-investigadores y por mí encontró que los modelos de IA, como las redes neuronales artificiales y los árboles de clasificación y regresión, pueden predecir el distress financiero con notable precisión. Las redes neuronales artificiales son algoritmos inspirados en el cerebro que procesan información a través de capas de «neuronas artificiales» interconectadas, aprendiendo patrones de datos para hacer predicciones. Por su parte, los árboles de clasificación y regresión son modelos de toma de decisiones que dividen los datos en ramas basadas en características importantes para identificar resultados.

Nuestros modelos de redes neuronales artificiales predijeron el distress financiero entre las empresas listadas en la Bolsa de Valores de Toronto con una asombrosa precisión del 98%. Esto sugiere que la IA tiene un inmenso potencial para proporcionar señales de advertencia tempranas que podrían ayudar a evitar crisis financieras antes de que ocurran. Sin embargo, aunque la IA puede simplificar procesos manuales y reducir riesgos financieros, también puede introducir vulnerabilidades que, si no se controlan, podrían representar amenazas significativas para la estabilidad económica.

Los riesgos de la desregulación

El impulso de Trump hacia la desregulación podría resultar en que Wall Street y otras grandes instituciones financieras obtengan un poder significativo sobre las herramientas de toma de decisiones impulsadas por IA, con escasa o nula supervisión. Cuando modelos de IA motivados por el lucro operan sin los límites éticos adecuados, las consecuencias pueden ser graves. Los algoritmos sin control, especialmente en la evaluación crediticia y el trading, podrían agravar la desigualdad económica y generar riesgos financieros sistemáticos que los marcos regulatorios tradicionales no pueden detectar.

Los algoritmos entrenados con datos sesgados o incompletos pueden reforzar prácticas de préstamo discriminatorias. En el ámbito del crédito, por ejemplo, los algoritmos de IA sesgados pueden negar préstamos a grupos marginados, ampliando las brechas de riqueza y desigualdad. Además, los bots de trading impulsados por IA, capaces de ejecutar transacciones rápidas, podrían desencadenar caídas repentinas en cuestión de segundos, interrumpiendo los mercados financieros antes de que los reguladores puedan reaccionar. La caída repentina de 2010 es un ejemplo claro en el que los algoritmos de trading de alta frecuencia reaccionaron agresivamente a las señales del mercado, causando que el índice Dow Jones Industrial Average cayera 998.5 puntos en minutos.

Asimismo, los modelos de riesgo impulsados por IA no regulados podrían pasar por alto señales de advertencia económica, resultando en errores sustanciales en el control monetario y la política fiscal. La capacidad de equilibrar la innovación y la seguridad depende de la habilidad de reguladores y responsables de políticas para reducir los peligros que presenta la IA. Al considerar la crisis financiera de 2008, muchos modelos de riesgo—formas anteriores de IA—erraron al anticipar el colapso del mercado de vivienda nacional, lo que llevó a reguladores e instituciones financieras por el camino equivocado y exacerbó la crisis.

La investigación destaca la importancia de integrar métodos de aprendizaje automático dentro de sistemas regulatorios sólidos para mejorar la supervisión financiera, la detección y prevención de fraudes. Se requieren marcos regulatorios duraderos y razonables para convertir la IA de un posible disruptor a una fuerza estabilizadora. Al implementar políticas que prioricen la transparencia y la responsabilidad, los responsables políticos pueden maximizar las ventajas de la IA mientras minimizan los riesgos asociados.

Un organismo de supervisión de IA regulado a nivel federal en Estados Unidos podría servir como árbitro, similar a la propuesta del Gobierno canadiense de establecer un Comisionado de IA y Datos. Operar con controles y balances inherentes a las estructuras democráticas garantizaría la equidad en los algoritmos financieros y detendría las políticas de préstamo sesgadas y la manipulación del mercado encubierta.

Las instituciones financieras estarían obligadas a abrir la «caja negra» de las alternativas impulsadas por IA, exigiendo transparencia a través de estándares de IA explicativa—directrices destinadas a hacer que los resultados de los sistemas de IA sean más comprensibles y transparentes para los humanos. Las capacidades predictivas del aprendizaje automático podrían ayudar a los reguladores a identificar crisis financieras en tiempo real utilizando señales de advertencia tempranas, similares al modelo desarrollado por mis co-investigadores y por mí en nuestro estudio.

Sin embargo, esta visión no se limita a las fronteras nacionales. A nivel global, el Fondo Monetario Internacional y el Consejo de Estabilidad Financiera podrían establecer estándares éticos de IA para frenar la mala conducta financiera transfronteriza.

La cuestión que queda por resolver es si la IA seguirá siendo la clave para prever y detener la próxima crisis económica o si la falta de supervisión regulatoria provocará un desastre financiero. A medida que las instituciones financieras continúan adoptando modelos impulsados por IA, la ausencia de fuertes guardrails regulatorios plantea preocupaciones urgentes. Sin las salvaguardias adecuadas, la IA no es solo una herramienta para la predicción económica: podría convertirse en una fuerza impredecible capaz de acelerar la próxima crisis financiera.

Los riesgos son elevados y los responsables políticos deben actuar con rapidez para regular el creciente impacto de la IA antes de que la desregulación abra el camino a un desastre económico. Sin una acción decisiva, la rápida adopción de la IA en las finanzas podría superar los esfuerzos regulatorios, dejando a las economías vulnerables a riesgos imprevistos y potencialmente sentando las bases para otra crisis financiera global.

/ Published posts: 11721

Diario obrero y republicano fundado el 14 de Abril de 2006.