Enviar por Email

image_pdf

Informe de consulta de IOSCO sobre inteligencia artificial en los mercados de capitales: casos de uso, riesgos y desafíos

image_pdf

Junio 2025

Desde la publicación del último informe de IOSCO sobre Inteligencia Artificial (IA) en 2021, las tecnologías de IA han experimentado avances significativos, incluyendo la aparición de grandes modelos de lenguaje (LLM) y sistemas de IA generativos (GenAI). Los avances recientes en IA han ampliado su gama de aplicaciones en los mercados financieros, lo que conlleva posibles beneficios, pero también posibles riesgos.

El trabajo más reciente de IOSCO en materia de IA está siendo elaborado por su Grupo de Trabajo sobre Tecnología Financiera (FTF, por sus siglas en inglés) y consta de dos fases:

La primera fase consiste en este informe, que tiene el objetivo de desarrollar un entendimiento compartido entre los miembros de IOSCO sobre los problemas, riesgos y desafíos que presentan las tecnologías emergentes de IA utilizadas en productos y servicios financieros, desde la perspectiva de la protección del inversor, la integridad del mercado y la estabilidad financiera, e identificar cómo algunos miembros de IOSCO han comenzado a responder a los acontecimientos recientes. El informe se nutre de la investigación realizada en 2024 por el Grupo de Trabajo sobre IA del FTF de IOSCO, a través de encuestas, divulgación entre partes interesadas y revisiones de literatura, para recopilar información sobre los usos actuales y potenciales de los sistemas de IA en productos y servicios financieros.

La segunda fase del trabajo de IOSCO en materia de IA consistirá en considerar, si procede, el desarrollo de herramientas, recomendaciones o consideraciones adicionales para ayudar a sus miembros a abordar los problemas, riesgos y desafíos que plantea el uso de la IA en productos y servicios financieros. IOSCO seguirá coordinando los avances en IA en el sector financiero y colaborando con otras organizaciones internacionales pertinentes, como el Consejo de Estabilidad Financiera (FSB).

Este documento estuvo abierto a consulta pública hasta el 11 de abril de 2025 para recibir comentarios sobre su contenido y otras posibles áreas de enfoque futuras por parte de participantes del mercado financiero, desarrolladores de IA, académicos, investigadores, expertos en políticas públicas y otras partes interesadas.

¿Qué casos de uso de la IA en los mercados de capitales se han identificado?

Las tecnologías de IA se han vuelto cada vez más comunes para respaldar la toma de decisiones, así como en aplicaciones y funciones como el robo-advising, el trading algorítmico, la investigación de inversiones y el análisis de sentimientos. Las empresas reguladas y los proveedores externos también utilizan tecnologías de IA para mejorar las funciones de vigilancia y cumplimiento normativo, en particular en los sistemas relacionados con la prevención del blanqueo de capitales y la financiación del terrorismo.

Las empresas están considerando los recientes avances en IA para respaldar las operaciones y los procesos internos mediante la automatización de ciertas tareas, como la codificación, la extracción de información, la clasificación de textos, la agrupación, el resumen, la transcripción, la traducción y la redacción. Igualmente, están mejorando la comunicación con los clientes mediante agentes de conversación (chatbots). En lo que respecta a GenAI, en particular, los participantes de los mercados de capitales parecen haber priorizado las implementaciones internas de menor riesgo, centradas en mejorar la productividad interna, la generación de información o la gestión de riesgos, en lugar de las aplicaciones orientadas al cliente.

Con base en los resultados de las encuestas realizadas por IOSCO, los usos de IA observados con mayor frecuencia entre los participantes del mercado, incluyendo las sociedades de valores, los administradores de activos y las bolsas, fueron:

  • Prevención del blanqueo de capitales y la financiación del terrorismo (50%)
  • Apoyo a la productividad interna (50%)
  • Análisis de mercado y perspectivas comerciales (40%)

En el caso de la Unión Europea, ESMA estudió el uso de la IA en sus mercados en febrero de 2023 y encontró métricas diversas sobre la proporción de sus entidades registradas que la utilizan. Entre los casos de uso más destacados se encuentra la aplicación del procesamiento del lenguaje natural para la investigación de inversiones. Basándose en la documentación obligatoria impuesta por la normativa y de marketing de los fondos de inversión domiciliados en la UE, ESMA identificó 54 entidades (menos del 0,2 % de los fondos de inversión de la UE) que promovían el uso de la IA. Esta Autoridad detectó una creciente relevancia de los proveedores externos de sistemas de IA, el uso de la IA en la negociación y una gran proporción de agencias de calificación crediticia que utilizan la IA y el procesamiento del lenguaje natural como parte de sus procesos de investigación, redacción o internos.¹ En una encuesta realizada en octubre de 2023, ESMA concluyó que la mayoría de las agencias de calificación crediticia y las infraestructuras de mercado ya utilizaban herramientas GenAI o (con mayor frecuencia) planeaban empezar a utilizarlas próximamente.²

¹ European Securities and Markets Authority (2023), Artificial Intelligence in EU Securities Markets

² European Securities and Markets Authority (2024), TRV Risk Monitor

¿Cuáles son los riesgos, problemas y desafíos relacionados con la protección de los inversores, la integridad del mercado y la estabilidad financiera?

Los riesgos citados, con mayor frecuencia, con respecto al uso de sistemas de IA en el sector financiero incluyen:

  • Usos maliciosos de la IA

    Los riesgos más citados por los encuestados fueron la ciberseguridad, la privacidad y protección de datos, el fraude, la manipulación del mercado y las deepfakes.

    Los riesgos de ciberseguridad, en particular los asociados con los avances en IA, han sido categorizados de la siguiente manera: (i) ataques utilizando IA, (ii) ataques dirigidos a sistemas de IA y (iii) fallos en el diseño e implementación de IA.

    Se considera que si el uso malicioso de las técnicas de IA se generaliza podría erosionar la confianza de los inversores en la procedencia y la veracidad de la información y las comunicaciones digitales, hasta el punto de presentar riesgos más amplios, como el debilitamiento de la confianza en los mercados financieros. Además, la confianza en el uso de las tecnologías de IA en general podría disminuir, lo que podría obstaculizar el desarrollo de estas tecnologías y su uso con fines beneficiosos.

  • Consideraciones sobre modelos y datos de la IA

    Con respecto a los modelos, los riesgos identificados con mayor frecuencia fueron los riesgos relacionados con (i) la dificultad de explicación e interpretación, (ii) el sesgo del modelo, (iii) la complejidad, (iv) la robustez y la resiliencia, (v) las alucinaciones y (vi) los conflictos de intereses.

    Con respecto a los datos, se identificaron con mayor frecuencia los riesgos sobre la calidad de los datos (cuando los datos son representativos, precisos, relevantes, etc.), la desviación de los datos (cuando los datos de entrenamiento y, por lo tanto, el modelo entrenado con ellos, pierden su representatividad) y el sesgo de los datos (cuando los conjuntos de datos no son lo suficientemente diversos o representativos y pueden contener sesgos injustos).

  • Concentración, subcontratación y dependencia de terceros

    La concentración de agregadores de datos presenta riesgos específicos si se utilizan los avances en IA relacionados con el trading algorítmico, el robo-advising y la gestión de activos. La detección y el seguimiento de la concentración, la externalización y las dependencias presentan desafíos significativos. Por ejemplo, IOSCO no logró comprender claramente la variedad de modelos de IA que se utilizan en los servicios financieros, incluyendo la función de los modelos propios frente a los abiertos.

  • Interacciones entre humanos y sistemas de IA

    Estos riesgos incluyen la falta de rendición de cuentas y el incumplimiento normativo, la supervisión insuficiente y la escasez de talento, así como la excesiva dependencia de la tecnología para la toma de decisiones.

    Adicionalmente, IOSCO ha identificado para su observación la interconexión de las entidades financieras con sus proveedores, el efecto rebaño entre los participantes del mercado y los potenciales comportamientos “colusorios” o “malintencionados”, que podrían llegar a tener un impacto negativo en los mercados, aunque de momento no hay datos suficientes para evaluarlos.

¿Qué medidas han tomado los participantes del mercado para la gestión de riesgos y qué respuestas de alcance normativo se han adoptado?

Las prácticas de la industria en materia de gestión de riesgos y gobernanza están evolucionando. Algunas instituciones financieras están incorporando IA a las estructuras de gobernanza y gestión de riesgos existentes, mientras que otras están estableciendo marcos de gobernanza y gestión de riesgos de IA a medida.

Las empresas informaron sobre una serie de características notables del desarrollo de la IA que han influido en sus consideraciones sobre gestión de riesgos y gobernanza:

  1. La integración de la tecnología de IA en sistemas que pueden estar disponibles o ser utilizados por los empleados de toda la organización, no solo los informáticos y científicos de datos, en todos sus dispositivos. Con esta tendencia, algunas empresas han reconocido la necesidad de implementar controles en torno al uso de la IA de forma integral en toda la organización y, por lo tanto, deben considerar cómo educar y capacitar a un grupo mucho más amplio de empleados en temas como la protección de datos y la privacidad, la higiene informática y las obligaciones derivadas de la normativa que implican los diversos usos de la tecnología de IA en actividades reguladas.
  2. Con la introducción de GenAI, LLMs e IA de propósito general, la gestión de riesgos y la gobernanza pueden no encajar perfectamente dentro de una sola línea organizativa. El perfil de riesgo asociado a diversos casos de uso de IA puede abarcar responsabilidades de varias líneas organizativas dentro de una empresa. Al buscar integrar tecnologías de IA más recientes, las empresas han reconocido la necesidad de formar equipos de gestión de riesgos y gobernanza interdisciplinares, con empleados de diversas áreas y con suficiente experiencia y veteranía.

    Es importante destacar que las empresas han reconocido que una gobernanza adecuada implica un correcto «tono desde la alta dirección» y han incluido personas de alto nivel en el proceso de gestión y gobernanza de riesgos, a menudo reservando un puesto directivo para un «Director de IA».

  3. La criticidad de los datos y la ciberseguridad. La gestión de riesgos y la gobernanza del uso de la IA requieren prestar atención a los modelos utilizados, así como a la calidad y la procedencia de los datos utilizados para entrenarlos. Para garantizar la protección de los datos de la empresa y de los clientes es necesario centrarse en los problemas de ciberseguridad derivados de los modelos y los datos, así como en el entorno en el que se implementa el modelo de IA.
  4. La naturaleza no determinista de ciertas tecnologías de IA, que se basan en algoritmos probabilísticos, hace que los modelos de IA sean potencialmente impredecibles y difíciles de explicar. A medida que las empresas exploran el uso de estas tecnologías de IA deberían centrarse en si pueden mitigar el daño previniendo ciertos resultados negativos, en lugar de cumplir con un conjunto específico de requisitos. Este análisis suele examinar los posibles impactos de un caso de uso particular, dadas sus capacidades, y determinar si estos se encuentran dentro de un rango aceptable o si pueden mitigarse adecuadamente.

En general, las empresas más grandes del sector financiero parecen estar utilizando marcos de gestión de riesgos y gobernanza para la estrategia interna de IA, los procesos, la gestión de riesgos y la incorporación de tecnología que incorporan algunos o todos los siguientes principios: (i) transparencia, (ii) fiabilidad, robustez y resiliencia, (iii) protección de inversores y del mercado, (iv) equidad, (v) seguridad, protección y privacidad, (vi) responsabilidad, (vii) gestión y gobernanza de riesgos y (viii) supervisión humana.

Las respuestas de alcance normativo al uso de IA en el sector financiero incluyen la aplicación de los marcos normativos existentes (enfoque «tecnológicamente neutral»), la emisión de directrices específicas y el desarrollo de nuevos marcos.

En cuanto a la UE, el informe menciona:

  • Directrices específicas de ESMA, a partir de mayo de 2024, para las empresas que utilizan IA al prestar servicios de inversión a clientes minoristas, incluyendo ejemplos de cuándo el uso de tecnologías de IA por parte de las empresas de inversión estaría cubierto por los requisitos de MiFID II, como la atención al cliente, la detección del fraude, la gestión de riesgos, el cumplimiento normativo y el apoyo a las empresas en la prestación de asesoramiento en materia de inversión y la gestión de carteras.
  • Marco específico en virtud de la Ley de Inteligencia Artificial de la UE. En cuanto al sector financiero, la Ley de IA de la UE identifica dos casos de uso de alto riesgo: (1) sistemas de IA utilizados para evaluar la solvencia de las personas físicas y para evaluaciones de riesgos y (2) la fijación de precios de seguros de vida y salud.