
Publicado el 15 de junio de 2024 por Editor
La funcionaria del Tesoro de los Estados Unidos, Nellie Liang, presidenta del Comité Permanente de Evaluación de Vulnerabilidades del Consejo de Estabilidad Financiera (FSB), se dirigió a la Mesa Redonda OCDE-FSB sobre Inteligencia Artificial en Finanzas. Liang enfatizó el potencial transformador de la IA en las finanzas, pero también destacó la necesidad de una calidad sólida de los datos para gestionar los riesgos asociados con la implementación de la IA.
Liang describió cómo las instituciones financieras están aprovechando cada vez más la IA para reducir costos, gestionar riesgos y personalizar servicios. Sin embargo, estos beneficios conllevan riesgos sustanciales, particularmente relacionados con la precisión del modelo y la integridad de los datos.
La confiabilidad de los resultados de la IA depende en gran medida de la calidad de los datos subyacentes. Los datos inexactos o sesgados pueden llevar a una toma de decisiones errónea, lo que es particularmente peligroso en contextos financieros. Liang enfatizó que gestionar la calidad de los datos es esencial para garantizar que los modelos de IA sean efectivos y seguros, haciéndose eco de la necesidad de contar con marcos estrictos de gobernanza y supervisión.
Desde una perspectiva regulatoria, Liang abogó por la mejora de los marcos existentes para abordar los desafíos únicos que plantea la IA. Sugirió que los reguladores se centren en amplificar los riesgos conocidos, como los problemas de calidad de los datos, y adaptar los mecanismos de supervisión para atender los nuevos riesgos impulsados por la IA. Garantizar la transparencia y la rendición de cuentas en las aplicaciones de IA sigue siendo fundamental para salvaguardar la estabilidad financiera.
XBRL International reconoce el papel crucial de los datos estructurados de alta calidad para aprovechar todo el potencial de la IA y al mismo tiempo mitigar sus riesgos. A medida que la IA siga evolucionando, mantener estándares de datos rigurosos y una supervisión regulatoria será vital para garantizar la estabilidad y la integridad del sistema financiero global.
Para conocer los comentarios completos de Nellie Liang, consulte aquí.

Comentarios sobre la inteligencia artificial en las finanzas
4 de junio de 2024
Declaraciones de Nellie Liang, subsecretaria de Finanzas Internas de EE. UU. y presidenta del Comité Permanente de Evaluación de Vulnerabilidades de la Junta de Estabilidad Financiera, en la Mesa Redonda OCDE – FSB sobre Inteligencia Artificial en Finanzas, París, 22 de mayo de 2024.
I. INTRODUCCIÓN
Gracias a la OCDE y al FSB por organizar la mesa redonda de hoy, Inteligencia artificial en finanzas, y por invitarme a hablar.
La inteligencia artificial o “IA” tiene el potencial de transformar muchos aspectos de nuestras vidas y de nuestra sociedad y, en el último año y medio, ha capturado nuestra imaginación. Pero, al igual que las oleadas tecnológicas anteriores que ofrecieron grandes oportunidades, también trae consigo desafíos y temores.
Las empresas financieras llevan muchos años utilizando algunos tipos de IA. Sin embargo, los avances recientes en la capacidad informática y los últimos avances en IA –como la IA generativa o GenAI– representan un avance espectacular en sus capacidades. Los nuevos modelos de IA pueden ingerir una amplia gama de datos, generar contenidos y tener una mayor capacidad para evolucionar por sí solos y automatizar la toma de decisiones. Estas tecnologías se están desarrollando rápidamente, y tanto las empresas como los reguladores aún se encuentran en las primeras etapas de comprensión de cómo las instituciones financieras podrían utilizar los modelos más nuevos de IA. Es crucial que sigamos profundizando nuestra comprensión de los posibles beneficios y riesgos y que aseguremos que el marco regulatorio siga el ritmo. Esta es una gran empresa. Eventos como el de hoy son una parte importante para construir nuestra comprensión.
Mis comentarios de hoy se centrarán en cómo los responsables de las políticas financieras están aprendiendo sobre el uso de nuevas herramientas de inteligencia artificial por parte de las empresas financieras y qué tipos de riesgos podrían introducir estas herramientas al sistema financiero. La adopción de nuevas tecnologías en las finanzas no es nueva. Las empresas financieras están innovando continuamente para aumentar la eficiencia y ofrecer nuevos servicios. Los formuladores de políticas tienen experiencia con tecnologías cambiantes y han desarrollado marcos regulatorios centrados en la construcción de barreras protectoras, independientemente de la tecnología subyacente utilizada. En otras palabras, no estamos empezando desde cero al pensar en cómo abordar los riesgos de la IA y al mismo tiempo permitir que se aprovechen sus oportunidades. La pregunta principal hoy es si los nuevos modelos de IA son fundamentalmente distintos de la tecnología existente o si se utilizarán de una manera tan diferente que los marcos regulatorios actuales no sean suficientes o no se apliquen.
Con ese marco en mente, comenzaré mis comentarios de hoy con una caracterización de la tecnología y cómo las instituciones financieras utilizan la IA en la actualidad. Estos usos actuales pueden ayudarnos a pensar en cómo las empresas financieras perciben sus oportunidades y cómo podrían querer utilizar la IA en el futuro. Luego consideraré los riesgos potenciales y nuestro marco regulatorio financiero para evaluar y abordar estos riesgos. Terminaré con algunas preguntas para que este grupo las considere.
II. DEFINIENDO LA IA
La inteligencia artificial es un concepto amplio y se resiste a una definición precisa. Aquí usaré la IA para describir cualquier sistema que genere resultados (que pueden ser pronósticos, contenido, predicciones o recomendaciones) para un conjunto determinado de objetivos. A partir de este marco conceptual de lo que hacen los sistemas de IA, podemos pensar que la tecnología subyacente se divide en tres categorías: inteligencia artificial “temprana”, aprendizaje automático y modelos generativos de IA más nuevos. Estas categorías siguen aproximadamente el orden en que se desarrollaron, pero muchos modelos de IA combinan elementos de estas tres categorías.
En primer lugar, la IA temprana describe modelos basados en reglas. Muchos lenguajes de programación de computadoras son básicamente IA basada en reglas y se han utilizado desde la década de 1970. Generalmente, estos sistemas resuelven problemas utilizando reglas específicas aplicadas a un conjunto definido de variables. Todos tenemos un servicio al cliente experimentado que utiliza una IA basada en reglas. Hacemos una pregunta que conduce a preguntas de seguimiento predefinidas, hasta que obtenemos una respuesta predeterminada o presionamos cero suficientes veces como para que podamos hablar con un humano. Los modelos internos de previsión de pérdidas o el comercio algorítmico temprano, por ejemplo, también podrían considerarse formas de inteligencia artificial temprana. Estamos muy familiarizados con este tipo de herramientas en finanzas.
En segundo lugar, a diferencia de los sistemas basados en reglas, el aprendizaje automático identifica relaciones entre variables sin instrucción o programación explícita. En el aprendizaje automático, los datos son la entrada clave y el sistema identifica patrones a partir de los datos. El aprendizaje se puede reforzar, por ejemplo, proporcionando retroalimentación al sistema sobre si el resultado es bueno o malo. A partir de esta retroalimentación, el modelo de aprendizaje automático puede aprender a funcionar mejor en el futuro. El aprendizaje automático también está integrado en muchos procesos existentes para las instituciones financieras. Por ejemplo, se ha utilizado durante mucho tiempo para desarrollar herramientas de detección de fraude. El aprendizaje automático también permite que la aplicación de banca móvil de su teléfono lea cheques escritos a mano.
Los últimos modelos de IA se caracterizan por su capacidad para generar contenido nuevo, desde texto hasta imágenes y vídeos. En lugar de limitarse a un conjunto definido de respuestas potenciales en un formato definido, GenAI puede producir una variedad de respuestas en una variedad de formatos. Por ejemplo, “Dame recomendaciones sobre dónde comer en París, pero compuesto como un poema en pentámetro yámbico”. Estos modelos son flexibles y a menudo dinámicos, y aprenden de la experiencia al generar respuestas y asimilar nueva información. Los sistemas de IA más avanzados, que aún se están desarrollando, pretenden ser altamente autónomos con capacidades que igualen o superen las capacidades humanas.
III. USO DE LA IA
Nuestra experiencia con cambios tecnológicos anteriores puede ayudarnos a comprender cómo las instituciones financieras podrían estar abordando la inteligencia artificial más nueva y brindarnos información sobre sus posibles beneficios y oportunidades.
Comenzaré con algunas ideas sobre dónde podríamos ver estos beneficios.
Primero, ¿cuáles son los mejores casos de uso? Muchos casos de uso surgen de la capacidad de la IA para procesar mejor volúmenes y tipos de información que de otro modo serían poco prácticos o imposibles de analizar. En el contexto de las empresas financieras, la IA se puede utilizar para dos propósitos: en primer lugar, se puede utilizar para reducir costos o riesgos y aumentar la productividad, por ejemplo, automatizando algunas funciones administrativas o brindando un servicio al cliente de rutina. Por ejemplo, al analizar una gama y una cantidad de datos más amplia, la IA puede identificar patrones que sugieran actividad sospechosa. En segundo lugar, la IA se puede utilizar para desarrollar nuevos productos, como servicios más personalizados. Por ejemplo, al procesar más datos de más fuentes para comprender mejor a sus clientes, la IA puede permitir una mayor personalización de las experiencias financieras en línea de los clientes. 1
Dicho esto, dado que la IA depende en gran medida de los datos con los que se entrena, no todas las herramientas de IA son igualmente adecuadas para cada tipo de tarea. Por ejemplo, los modelos de lenguaje grandes, por definición, se entrenan principalmente con lenguaje. Como resultado, pueden ser más adecuados para tareas basadas en el lenguaje, como el servicio al cliente, que para tareas como evaluar el valor en riesgo, y muchas instituciones financieras están explorando el uso de modelos de lenguaje grandes para respaldar los chatbots de los clientes. 2
En segundo lugar, ¿cuáles son los costos de desarrollo y adopción? Las herramientas de IA pueden requerir una inversión significativa, por ejemplo, para desarrollar o comprar la herramienta, o invertir en recursos computacionales. Si bien algunos costos operativos han disminuido y la capacidad informática se ha ampliado, las demandas de recursos serán una consideración importante para los tipos de casos de uso que las empresas persiguen o priorizan. Al mismo tiempo, quedarse atrás de los competidores que utilizan la IA para mejorar sus servicios podría tener costos.
Además, las instituciones financieras también deben trabajar dentro de estructuras de gobernanza y límites de apetito de riesgo adecuados. Por ejemplo, si una herramienta reemplazara a los operadores humanos, ¿qué tan costoso sería un error por no involucrar una intervención humana activa? Si una herramienta no reemplaza a un operador humano, ¿seguiría habiendo ganancias de productividad?
No tenemos una imagen completa de las formas en que diversas instituciones financieras utilizan la IA. El trabajo del FSB en 2017 destacó muchos usos, ahora relativamente maduros, como la suscripción de crédito y la ejecución comercial. Más recientemente, muchas autoridades están realizando encuestas y solicitando la opinión del público, además de hablar directamente con las empresas. A partir de este trabajo, vemos que la IA se utiliza en tres áreas principales. En primer lugar, la IA se utiliza para automatizar las funciones administrativas y ayudar al cumplimiento. Las herramientas de detección de fraudes y finanzas ilícitas son un ejemplo de ello. En segundo lugar, la IA se utiliza para algunas aplicaciones orientadas al cliente, como los chatbots de servicio al cliente. Por último, algunas instituciones financieras están buscando formas de incorporar la IA en sus ofertas de productos. Algunas de estas aplicaciones son familiares, como las estrategias comerciales, pero dependen más de la IA que en el pasado.3 Algunos fondos de cobertura anuncian que sus estrategias se basan enteramente en IA predictiva, mientras que anteriormente la IA podría haberse utilizado para informar a los tomadores de decisiones humanos. En otros casos, la IA ha dado lugar a nuevos tipos de productos. Por ejemplo, algunos corredores de seguros están experimentando con nuevo software para ayudar a sus clientes, por ejemplo, a gestionar el riesgo de la cadena de suministro, basándose en imágenes satelitales procesadas por IA. 4
Aún es temprano, pero las empresas están siguiendo una amplia gama de estrategias sobre cómo utilizar las nuevas herramientas de IA. Parecen estar actuando con cautela, especialmente cuando experimentan con GenAI y, al mismo tiempo, realizan cambios en la gobernanza interna. 5 Algunas empresas de tecnología financiera que están sujetas a menos regulación pueden estar actuando más rápidamente.
IV. RIESGOS
Como destacan estos casos de uso, la IA puede ofrecer importantes beneficios a las instituciones financieras al reducir costos y generar ingresos. Pero a medida que las instituciones financieras exploran nuevas formas de beneficiarse de la IA, tanto los formuladores de políticas como las instituciones financieras deben considerar los riesgos potenciales más amplios. Podemos considerar estos riesgos en algunas categorías: primero, riesgos para instituciones financieras individuales; segundo, riesgos para el sistema financiero en general; tercero, cambios en el panorama competitivo; y finalmente, implicaciones para consumidores e inversores.
Riesgos para las instituciones financieras: consideraciones microprudenciales
Un riesgo clave para las instituciones financieras que utilizan herramientas de inteligencia artificial es el riesgo de modelo. El riesgo de modelo se refiere a las consecuencias de un mal diseño o mal uso de los modelos. Abordar el riesgo del modelo incluye gestionar la calidad, el diseño y la gobernanza de los datos. Los datos, el diseño y la gobernanza de los modelos son componentes críticos para el desarrollo eficaz y seguro de la IA y su uso. Por ejemplo, es importante considerar dónde las limitaciones de los datos pueden sesgar los resultados de un modelo. Los modelos entrenados con datos históricos, por definición, se basarán únicamente en los ejemplos históricos de estrés o eventos atípicos contenidos en los datos subyacentes. Si bien este tipo de eventos se destacan en nuestra memoria, son relativamente pocos y es poco probable que se repitan de la misma manera. Esta limitación significa que algunos modelos que podrían usarse para el comercio pueden ser menos sólidos o predictivos en futuros períodos de tensión.
También es fundamental considerar cómo se utiliza el modelo. Incluso si un modelo está bien diseñado, puede presentar riesgos si se usa o interpreta de manera inapropiada. A medida que las empresas se sienten más cómodas con los modelos y resultados de la IA, puede resultar fácil olvidarse de cuestionar los supuestos subyacentes de los modelos o realizar análisis independientes. Hemos visto este tipo de dependencias en el pasado. Por ejemplo, antes de la crisis financiera, los bancos y los participantes del mercado dependían de las agencias de calificación crediticia hasta tal punto que reducían su capacidad de realizar evaluaciones independientes. 6 Las nuevas herramientas de IA pueden crear o exacerbar algunos de estos desafíos existentes para la gobernanza y la supervisión. Estas herramientas pueden ser menos claras en su razonamiento, más dinámicas y más automáticas. Por ejemplo, la velocidad y la independencia de algunas herramientas de IA exacerban el problema de la excesiva dependencia, ya que la oportunidad para la intervención humana puede ser muy breve. Esto es particularmente cierto para aplicaciones como estrategias comerciales debido a la velocidad requerida.
De manera relacionada, el uso de herramientas de inteligencia artificial puede aumentar la dependencia de vendedores y proveedores de servicios críticos. Si bien el uso de terceros puede ofrecer a las instituciones financieras beneficios significativos, estas dependencias pueden introducir algunos riesgos. Por ejemplo, las herramientas de inteligencia artificial requieren una potencia informática significativa y pueden aumentar la dependencia de un número relativamente pequeño de proveedores de servicios en la nube. Es probable que haya menos visibilidad de las herramientas de IA desarrolladas por los proveedores que de las desarrolladas internamente.
Los riesgos operativos relacionados con la IA también pueden provenir de fuera de la institución financiera. Estos incluyen ciberataques basados en IA, fraudes y falsificaciones profundas. Las herramientas GenAI ampliamente disponibles ya están ampliando el grupo de adversarios y permitiendo que todos los adversarios se vuelvan más competentes. Si bien las tácticas no suelen ser nuevas (como el phishing), se han vuelto más efectivas y eficientes en el último año. Por ejemplo, en un incidente reportado a principios de este año, un empleado de una institución financiera multinacional fue engañado para que transfiriera 25 millones de dólares después de asistir a una videoconferencia con una IA falsa del director financiero de la empresa. 7
Estabilidad financiera y consideraciones macroprudenciales
También deberíamos considerar si el uso de la IA por parte de las empresas financieras podría presentar riesgos para la estabilidad financiera, es decir, riesgos para el sistema financiero en general. Por ejemplo, los modelos de IA pueden introducir o amplificar interconexiones entre empresas financieras si los resultados del modelo están más correlacionados porque dependen de las mismas fuentes de datos, o si las empresas utilizan el mismo modelo. En algunos casos, la salida de un modelo puede ser una entrada para otro modelo. Estas interconexiones pueden exacerbar el comportamiento gregario o la prociclicidad. Cuando los modelos informan estrategias comerciales que se ejecutan automáticamente, pueden ser más probables incidentes como fallas repentinas. La complejidad y la opacidad también son motivo de preocupación. En la medida en que los modelos no sean transparentes en su razonamiento o no se basen en una gama más amplia de datos, es difícil predecir cómo podrían funcionar.
Cambios en el panorama competitivo
La IA tiene el potencial de cambiar el panorama competitivo de los servicios financieros. Esto podría suceder de varias maneras. En primer lugar, las importantes inversiones en potencia informática y datos necesarios para desarrollar modelos de IA pueden beneficiar a determinadas instituciones sobre otras. Las instituciones pequeñas con menos acceso a los datos pueden verse perjudicadas en su capacidad para desarrollar o acceder a la IA. Las instituciones que no han migrado a los servicios en la nube pueden tener menos posibilidades de acceder o utilizar la IA. Alternativamente, es posible que las inversiones necesarias para desarrollar modelos de IA sean tan significativas que las instituciones financieras converjan en un solo modelo, nivelando así el campo de juego entre instituciones grandes y pequeñas.
Además, la dinámica competitiva fuera de las instituciones financieras puede ser relevante. Las herramientas de inteligencia artificial y los servicios en la nube de los que dependen estas herramientas están siendo desarrollados con mayor intensidad por un puñado de empresas que no son instituciones financieras. La IA también puede atraer nuevos participantes a los servicios financieros, incluidos proveedores de tecnología que tal vez quieran utilizar datos recopilados en otros contextos.
Consumidores e inversores
En mis comentarios de hoy, me he centrado principalmente en el impacto de la IA en las instituciones financieras y el sistema financiero, pero también me gustaría dedicar unos momentos a las implicaciones potencialmente significativas para los consumidores e inversores.
Podemos pensar en estas implicaciones en dos líneas. En primer lugar, si bien los datos siempre han sido fundamentales para los servicios financieros, la IA intensifica aún más esta demanda de datos. Como resultado, la IA puede amplificar las preocupaciones existentes sobre la privacidad y la vigilancia de los datos. Y, si se recopilan datos, deben almacenarse, lo que genera preocupaciones sobre la seguridad de los datos.
En segundo lugar, los resultados de las herramientas de IA tienen implicaciones importantes para los consumidores e inversores. Los prestamistas que utilizan modelos de IA pueden desarrollar una imagen más completa de la solvencia utilizando muchas más variables, incluidos datos de fuentes menos tradicionales. 8 Los asesores de inversiones también están experimentando con el uso del aprendizaje automático o la inteligencia artificial predictiva para brindar asesoramiento más personalizado. Sin embargo, un área particular de preocupación es la posibilidad de que las herramientas de inteligencia artificial perpetúen el sesgo. Los datos históricos, ya sea que se utilicen en modelos tradicionales o en IA, incorporan resultados históricamente sesgados. La confianza de un prestamista en tales datos históricos puede ser particularmente problemática si el razonamiento de un modelo no es claro y si una decisión puede resultar en que a un consumidor se le niegue el servicio o el crédito de manera indebida. Además, con el uso cada vez mayor y más variado de datos, los consumidores enfrentarán desafíos para corregir las imprecisiones en sus datos. También es importante tener cuidado de que las fuentes alternativas de datos, que pueden ser menos transparentes y ocultar sesgos incrustados, no sean sustitutos de la raza, el género o el origen étnico.
V. MARCO PARA ABORDAR LOS RIESGOS
Muchos de los riesgos que he descrito son familiares para los reguladores financieros. Cuando consideramos la mejor manera de evaluar y mitigar los riesgos financieros que plantean los nuevos desarrollos de la IA, una vez más, no empezamos de cero. Por ejemplo, los principios de la gestión de riesgos de modelos establecen un marco para el diseño, la gobernanza, la auditoría y la calidad de los datos del modelo. Los principios de gestión de riesgos de terceros abordan los riesgos asociados con proveedores y otros proveedores de servicios críticos. Las leyes de préstamos justos, crédito justo y privacidad de datos están diseñadas para abordar los riesgos para los consumidores, y las leyes de valores están diseñadas para proteger a los inversores. Del mismo modo, las herramientas de IA utilizadas para el cumplimiento, como el cumplimiento ALD/CFT, deben cumplir con estos requisitos regulatorios. Si bien este marco no es específico de la tecnología de IA, se aplica a la IA y está diseñado para abordar los riesgos independientemente de la tecnología utilizada.
Es a partir de este punto de partida que consideramos si la IA presenta riesgos que no se abordan adecuadamente en el marco existente. Estos riesgos podrían ser del mismo tipo, pero de mayor magnitud, o pueden ser tipos de riesgos completamente nuevos. La tecnología se está desarrollando rápidamente y debemos trabajar para garantizar que el marco político siga el ritmo. Con ese fin, me gustaría concluir planteando varias preguntas para ayudar a guiar esta discusión:
En primer lugar, ¿dónde podría la IA amplificar algunos riesgos conocidos y familiares? Por ejemplo, hace mucho que comprendemos la importancia de la calidad de los datos a la hora de modelar el riesgo crediticio y de mercado. Dado que la IA depende cada vez de más tipos diferentes de datos, estas preocupaciones pueden verse amplificadas.
En segundo lugar, ¿presenta la IA distintos tipos de riesgos? También puede ser que la IA presente tipos de riesgos categóricamente diferentes. Por ejemplo, la IA actúa de acuerdo con objetivos definidos y puede resultar complicado especificar todos los objetivos relevantes. Es posible que desee que la IA maximice las ganancias, pero dentro de límites legales y éticos que pueden ser difíciles de definir por completo. Si un modelo de IA actúa por sí solo y es capaz de actualizar su razonamiento sin intervención humana, esto puede socavar la responsabilidad por irregularidades o errores.
En tercer lugar, ¿hay cambios en el panorama competitivo que podrían tener implicaciones para el marco regulatorio? La IA puede cambiar el panorama competitivo. Estos cambios podrían ocurrir tanto entre las empresas financieras; por ejemplo, las empresas con mayor acceso a datos o a poder computacional pueden estar mejor posicionadas para competir. También podría ocurrir entre empresas financieras y no financieras, ya que algunas empresas no financieras ya tienen un acceso significativo a datos y potencia informática, y han mostrado cierto interés en brindar servicios financieros directamente. Si este panorama cambiante afecta la capacidad de abordar los riesgos en el sector financiero, ¿qué ajustes deberían considerarse, por ejemplo, para ciertos tipos de instituciones o ciertos tipos de relaciones?
Por último, ¿cuáles son las oportunidades para que los reguladores financieros y otras autoridades utilicen la IA? También es pronto para los responsables de la formulación de políticas. Estamos explorando oportunidades para identificar anomalías en los datos para contrarrestar las finanzas ilícitas y el fraude, y para encontrar mejores formas para que el sector privado cree bases de datos más completas para mejorar la detección del fraude. 9 Esta es una propuesta de alto valor con un riesgo manejable si trabajamos juntos entre los sectores público y privado. También podríamos considerar cuáles son otros posibles casos de uso y qué consideraciones deberían guiar esos casos de uso.
Ciertamente, hay otras preguntas que podrían hacerse ahora y ciertamente habrá más preguntas para los formuladores de políticas a medida que la tecnología de inteligencia artificial continúe desarrollándose. Eventos como estos y el trabajo en curso del FSB y la OCDE son fundamentales para profundizar nuestra comprensión de los usos potenciales de la IA por parte de las instituciones financieras y para garantizar que nuestro marco de políticas siga el ritmo del cambio tecnológico.
Gracias.
- Véase, por ejemplo, Integraciones dinámicas de clientes para aplicaciones de servicios financieros[←]
- Ver Chatbots en financiación al consumo | Oficina de Protección Financiera del Consumidor[←]
- Véase, por ejemplo, MIT-UBS-generative-AI-report_FNL.pdf[←]
- Véase, por ejemplo, Marsh McLennan lanza una solución basada en IA para transformar la gestión de riesgos de la cadena de suministro[←]
- Informe de la encuesta IIF-EY 2023 sobre el uso de AI_ML en servicios financieros – Informe público – Final.pdf[←]
- Véase Reducción de la dependencia de las calificaciones crediticias – Consejo de Estabilidad Financiera[←]
- Consulte Gestión de riesgos de ciberseguridad específicos de la inteligencia artificial en el sector de servicios financieros[←]
- Véase Evaluación del impacto de las nuevas empresas no bancarias en la competencia en los mercados de financiación al consumo[←]
- Gestión de riesgos de ciberseguridad específicos de la inteligencia artificial en el sector de servicios financieros[←]
Tipo(s) de contenido: Prensa, Discursos Fuente(s): Área(s) de política del FSB: Innovación financiera, Evaluaciones de vulnerabilidades
Publicado originalmente: https://www.xbrl.org/news/fsb-highlights-importance-of-data-quality-in-ai-for-financial-stability/