Inteligencia artificial en la banca central


Boletín del BIS | No. 84 | 23 de enero de 2024

Por: Douglas Kiarelly Godoy de Araujo, Sebastián Doerr, Leonardo Gambacorta y Bruno Tissot

PDF texto completo (632kb) | 9 páginas

Conclusiones clave

  • Los bancos centrales han sido los primeros en adoptar técnicas de aprendizaje automático para estadísticas, análisis macroeconómico y vigilancia y supervisión de sistemas de pago, con considerable éxito.
  • La inteligencia artificial brinda muchas oportunidades en apoyo de los mandatos de los bancos centrales, pero también desafíos, algunos generales y otros específicos de los bancos centrales.
  • La colaboración de los bancos centrales, por ejemplo, mediante el intercambio de conocimientos y la puesta en común de experiencias, es muy prometedora para mantener a los bancos centrales a la vanguardia de los avances en inteligencia artificial.

Inteligencia artificial en la banca central

Mucho antes de que la inteligencia artificial (IA) se convirtiera en un punto focal de comentarios populares y de fascinación generalizada, los bancos centrales fueron los primeros en adoptar métodos de aprendizaje automático para obtener información valiosa para las estadísticas, la investigación y las políticas (Doerr et al (2021), Araujo et al (2022, 2023)). Las mayores capacidades y rendimiento de la nueva generación de técnicas de aprendizaje automático abren nuevas oportunidades. Sin embargo, para aprovecharlos es necesario que los bancos centrales desarrollen la infraestructura y los conocimientos necesarios. Los bancos centrales también deben abordar las preocupaciones sobre la calidad y la privacidad de los datos, así como los riesgos derivados de la dependencia de unos pocos proveedores.

En primer lugar, este boletín ofrece un breve resumen de los conceptos en el ámbito del aprendizaje automático y la IA. A continuación, se examinan los casos de uso de los bancos centrales en cuatro ámbitos: i) la recopilación de información y la compilación de estadísticas oficiales; ii) análisis macroeconómico y financiero en apoyo de la política monetaria; (iii) supervisión de los sistemas de pago; y iv) supervisión y estabilidad financiera. El Boletín también resume las lecciones aprendidas y las oportunidades y desafíos que surgen del uso del aprendizaje automático y la IA. Concluye analizando cómo la cooperación de los bancos centrales puede desempeñar un papel clave en el futuro.

Descripción general de los métodos de aprendizaje automático y la IA

A grandes rasgos, el aprendizaje automático comprende el conjunto de técnicas diseñadas para extraer información de los datos, especialmente con vistas a realizar predicciones. El aprendizaje automático puede verse como una consecuencia de las técnicas estadísticas y econométricas tradicionales, aunque no se basa en un modelo preespecificado ni en supuestos estadísticos como la linealidad o la normalidad. El proceso de ajustar un modelo de aprendizaje automático a los datos se denomina entrenamiento. El criterio para un entrenamiento exitoso es la capacidad de predecir resultados en datos no vistos previamente («fuera de la muestra»), independientemente de cómo los predigan los modelos. En esta sección se describen algunas de las técnicas más comunes utilizadas en los bancos centrales, basadas en los ejercicios regulares de balance organizados en la comunidad de bancos centrales bajo el paraguas del Comité Irving Fisher de Estadísticas de Bancos Centrales (IFC) del BPI.

Los métodos basados en árboles son algoritmos de aprendizaje automático flexibles que pueden abordar una amplia gama de tareas. Los árboles de decisión agrupan puntos de datos individuales dividiendo secuencialmente los datos en categorías más finas de acuerdo con características específicas de interés. Por ejemplo, un árbol puede clasificar primero las casas (los datos de entrada) en aquellas con más de tres habitaciones y aquellas con un máximo de tres, y luego dividir las casas en cada uno de estos subgrupos en las construidas antes de 1990 y las construidas después, y así sucesivamente. La partición más fina resultante de las casas se puede comparar con una dimensión particular de interés (la salida) para ver qué tan bien coincide la partición con un atributo de interés. Por ejemplo, capturar cómo varían los precios de las viviendas a lo largo de la partición más fina sería una forma de agrupar casas similares en términos de su precio.

Los bosques aleatorios combinan varios árboles entrenados en diferentes segmentos de los mismos datos para mejorar la predicción fuera de la muestra, al tiempo que protegen contra el riesgo de sobreajuste de la muestra de datos de entrenamiento. Los bosques aleatorios y los modelos relacionados pueden considerarse una forma más flexible de análisis de regresión, ya que predicen los resultados de las variables explicativas de interés (Athey e Imbens (2021)). Además, los métodos basados en árboles pueden servir como una herramienta exploratoria para obtener patrones en los datos sin imponer una estructura de modelo. Por ejemplo, pueden clasificar los puntos de datos en categorías similares. Con el mismo espíritu, los bosques pueden utilizarse para identificar valores atípicos por medio de bosques de aislamiento, un método que señala los puntos de datos que pueden aislarse de otros.

Las redes neuronales son quizás la técnica más importante en el aprendizaje automático, con usos generalizados incluso para la última generación de modelos. Sus principales componentes básicos son las neuronas artificiales, que toman múltiples valores de entrada y los transforman de forma no lineal para generar un solo número, como las regresiones logísticas. Las neuronas artificiales se organizan para formar una secuencia de capas que se pueden apilar: las neuronas de la primera capa toman los datos de entrada y emiten un valor de activación. A continuación, las capas posteriores toman la salida de la capa anterior como entrada, la transforman y generan otro valor, y así sucesivamente. De esta manera, al igual que las neuronas en el cerebro humano, el valor de salida de una neurona artificial es similar a un impulso eléctrico transmitido a otras neuronas. La profundidad de una red se refiere al número de capas. La constante de cada neurona y los pesos unidos a la salida de las neuronas de las capas anteriores se denominan colectivamente parámetros; Determinan la fuerza de las conexiones entre neuronas y capas. Estos parámetros se mejoran de forma iterativa durante el entrenamiento. Las redes más profundas con más parámetros requieren más datos de entrenamiento, pero predicen con mayor precisión. Las redes neuronales están detrás del reconocimiento facial o los asistentes de voz en los teléfonos móviles y son la base de las innovaciones recientes más significativas en IA.

Transformers, presentado en 2017, mejoró drásticamente el rendimiento de las redes neuronales en el procesamiento del lenguaje natural (NLP) y permitió el surgimiento de grandes modelos de lenguaje (LLM). En lugar de limitarse a relacionar una palabra con los que están cerca de ella, los transformadores intentan capturar la relación entre los diferentes componentes de una secuencia de texto, incluso si están muy separados en la oración. Esto permite que el modelo comprenda mejor el contexto y, por lo tanto, los diferentes significados que puede tener una palabra. Por ejemplo, el significado de la palabra «banco» difiere cuando aparece en la oración «Cruzaré el río a nado para llegar a la otra orilla» frente a «Crucé la calle para ir a la orilla». Transformers desbloqueó casos de uso de NLP que requieren lidiar con largos flujos de texto y dio lugar a los avances más recientes en LLM, como ChatGPT.

Los LLM son la base del rápido auge de la IA generativa («gen AI»), que genera contenido basado en indicaciones adecuadas y puede realizar tareas más allá del reconocimiento del lenguaje. Los LLM son redes neuronales que se entrenan para predecir la siguiente palabra en una secuencia de texto determinada. Para realizar esta tarea, los LLM aprenden a absorber todos los conocimientos escritos sobre los que fueron formados. Como resultado, su predicción suele ser precisa incluso para textos que requieren matices o conocimientos de campo. Los LLM se pueden ajustar para tareas específicas con datos especializados. Por ejemplo, ChatGPT se basa en un LLM refinado con retroalimentación humana para generar respuestas más útiles. Las características clave de la IA de generación son que puede ser utilizada no solo por un pequeño conjunto de especialistas, sino por prácticamente todo el mundo, y que puede extraer fácilmente información de datos no estructurados.

Aprendizaje automático e IA en los bancos centrales: casos de uso

¿Cuáles son los casos de uso actuales del aprendizaje automático y la IA en los bancos centrales? La mejor manera de organizarlos es por ámbito: i) recopilación de información y compilación estadística; ii) análisis macroeconómico y financiero en apoyo de la política monetaria; (iii) supervisión de los sistemas de pago; y iv) supervisión y estabilidad financiera. En esta sección se proporcionan ejemplos relevantes en cada área. En el anexo se puede encontrar más información sobre los ejemplos seleccionados, así como una lista más amplia de casos de uso.

Recopilación de información

Garantizar la disponibilidad de datos de alta calidad como insumos para el análisis económico y para la compilación y producción de estadísticas es un reto importante para los bancos centrales. Los problemas incluyen la limpieza de datos, el muestreo, la representatividad y la coincidencia de los nuevos datos con las fuentes existentes. El volumen y la complejidad de los datos, que aumentan constantemente, requieren herramientas de calidad de datos eficientes y flexibles.

Para proporcionar microdatos de alta calidad, los bancos centrales están utilizando progresivamente técnicas de aprendizaje automático. Los bosques de aislamiento son especialmente adecuados para los conjuntos de datos grandes y granulares típicos de los bancos centrales, debido a su escalabilidad y capacidad para identificar valores atípicos independientemente de la forma de la distribución de los datos. También hay beneficios en un enfoque de dos pasos: inicialmente, un modelo identifica de forma autónoma posibles valores atípicos, que luego son revisados por expertos que brindan retroalimentación para refinar el algoritmo. Este enfoque equilibra el valor de la experiencia en el dominio con los costos de los insumos humanos. Al analizar diferentes métodos para explicar la clasificación de valores atípicos, este enfoque puede superar el problema de los modelos de aprendizaje automático de «caja negra» que carecen de «explicabilidad», que se analiza a continuación. Además, los métodos de aprendizaje automático explicables proporcionan a los expertos orientación sobre qué puntos de datos justifican la verificación manual.

Análisis macroeconómico y financiero para apoyar la política monetaria

Los bancos centrales dependen en gran medida del análisis macroeconómico y financiero para respaldar la política monetaria. En un entorno complejo, un desafío importante es extraer información de manera eficiente de una amplia gama de fuentes de datos tradicionales y no tradicionales. El aprendizaje automático ofrece herramientas valiosas en esta área.

Las redes neuronales pueden, por ejemplo, desglosar la inflación de los servicios en diferentes componentes, revelando cuánta inflación se debe a aumentos de precios pasados, expectativas de inflación, la brecha de producción o los precios internacionales. Estos modelos pueden procesar más variables de entrada que los econométricos tradicionales, lo que permite a los bancos centrales utilizar conjuntos de datos granulares en lugar de datos más agregados. Otra ventaja es la capacidad de las redes neuronales para reflejar no linealidades complejas en los datos, lo que puede ayudar a los modeladores a capturar mejor las no linealidades, desde el límite inferior cero hasta las tenencias desiguales de activos y los cambios en la dinámica de la inflación.

Otros casos de uso son la obtención de estimaciones en tiempo real (nowcasts) de las expectativas de inflación o el resumen de las condiciones económicas a lo largo del tiempo. Por ejemplo, los modelos forestales aleatorios pueden identificar las publicaciones en las redes sociales que están relacionadas con los precios y, a continuación, introducirlas en otro modelo forestal aleatorio que clasifique cada publicación como reflejo de la inflación, la deflación u otras expectativas. La diferencia en los recuentos diarios de las publicaciones en las redes sociales para una inflación más alta frente a una más baja mide las expectativas de inflación. Del mismo modo, las publicaciones en las redes sociales pueden utilizarse para hacer un seguimiento de la credibilidad de la política monetaria del banco central ante el público en general.

Otro ejemplo es el uso de LLM de código abierto afinados con noticias financieras para resumir las narrativas de las condiciones económicas durante un largo período de tiempo. Los modelos pueden procesar, por ejemplo, textos anecdóticos de entrevistas con empresarios, economistas y expertos en el mercado para producir una serie temporal de su valor de sentimiento (positivo o negativo). El índice de sentimiento se puede utilizar para pronosticar el PIB o predecir recesiones.

La adaptación de los LLM a la terminología de los bancos centrales puede aportar nuevos beneficios, como demuestra el proyecto de modelos lingüísticos de los bancos centrales (CB-LM) desarrollado en el BPI (Gambacorta et al (2024)). Este enfoque utiliza miles de discursos de bancos centrales y documentos de investigación compilados por el Centro de Bancos Centrales del BPI para adaptar los LLM de los fundamentos de código abierto ampliamente utilizados emitidos por Google y Meta. Esta formación adicional centrada en los textos de los bancos centrales aumentó la precisión del 50-60% al 90% en la interpretación de la terminología y los modismos de los bancos centrales. También ha mejorado el desempeño en tareas como la clasificación de las posturas de política del Comité Federal de Mercado Abierto y la predicción de las reacciones del mercado a los anuncios de política monetaria.

Supervisión de los sistemas de pago

El buen funcionamiento de los sistemas de pago es fundamental para la estabilidad del sistema financiero, pero la gran cantidad de datos sobre transacciones, a menudo con una distribución muy sesgada, plantea dificultades para distinguir las transacciones anómalas de las normales. Identificar correctamente los pagos anómalos es crucial para abordar problemas como posibles quiebras bancarias, ciberataques o delitos financieros de manera oportuna. El blanqueo de capitales, en particular, socava la integridad y la seguridad del sistema financiero mundial.

El Proyecto Aurora del Centro de Innovación del BIS utiliza datos sintéticos de blanqueo de capitales para comparar la identificación de pagos fraudulentos mediante varios modelos tradicionales y de aprendizaje automático (BISIH (2023)). Los modelos, que incluyen bosques de aislamiento y redes neuronales, se entrenan con transacciones de lavado de dinero conocidas (sintéticas) y luego predicen la probabilidad de lavado de dinero en datos no vistos. Los modelos de aprendizaje automático superan a los métodos basados en reglas que prevalecen en la mayoría de las jurisdicciones o a las regresiones logísticas tradicionales. Las redes neuronales de grafos, que toman las relaciones de pago como entrada, identifican particularmente bien las redes de transacciones sospechosas. Estos modelos pueden funcionar eficazmente incluso con una agrupación de datos que salvaguarde la confidencialidad, lo que sugiere que la cooperación para analizar conjuntamente múltiples bases de datos puede ser segura y beneficiosa. Esto ilustra el potencial de una mayor cooperación entre las autoridades.

Otro enfoque para supervisar las transacciones de pago implica el uso de métodos de aprendizaje no supervisados para identificar automáticamente las transacciones que merecen una inspección más detallada. Por ejemplo, los modelos de codificadores automáticos, redes neuronales en las que tanto la capa de entrada como la de salida analizan los mismos datos, distinguen los pagos típicos de los anómalos y pueden detectar dinámicas no lineales, como las corridas bancarias. En simulaciones, estos modelos identificaron efectivamente patrones de retiros significativos de depósitos bancarios durante varios días. Los codificadores automáticos también identificaron una serie de anomalías de la vida real en los sistemas de pago, incluidas las interrupciones operativas entre los principales bancos nacionales.

Supervisión y estabilidad financiera

Los supervisores analizan una amplia gama de fuentes de datos para supervisar de manera eficiente a las instituciones financieras. Estas fuentes incluyen documentos de texto como artículos periodísticos, documentos bancarios internos o evaluaciones supervisoras. Examinar esta gran cantidad de información para extraer información relevante puede llevar mucho tiempo y, con el volumen cada vez mayor de datos, se vuelve casi insuperable. Además, los análisis relacionados con los riesgos climáticos y cibernéticos se han convertido en prioridades de supervisión, pero carecen de la infraestructura de datos integral que ya existe para los riesgos más «tradicionales».

Una vía seguida por muchos bancos centrales es consolidar la gran cantidad de información en un solo lugar y ayudar al análisis supervisor de los datos no estructurados. Por ejemplo, los modelos ajustados sobre el contenido supervisor junto con las técnicas de PLN pueden clasificar documentos públicos y supervisores, realizar análisis de sentimiento e identificar temas de tendencia, como se hace en la plataforma Athena del BCE. Los modelos de entrenamiento en un gran cuerpo de texto combinados con un léxico definido por expertos de palabras y cláusulas relevantes también pueden ayudar a automatizar el descubrimiento de extractos que contienen información sobre diferentes riesgos. Dichos modelos, por ejemplo, el LEX de la Reserva Federal, facilitan el acceso de los supervisores a la información relevante dispersa en millones de documentos y reducen el tiempo dedicado a revisar las presentaciones de documentos. Los modelos de clasificación, que aprovechan técnicas basadas en árboles o redes neuronales, también pueden ayudar a identificar a los prestatarios individuales para los que los prestamistas subestiman las posibles pérdidas crediticias, una tarea para la que el Banco Central de Brasil creó ADAM. Las redes neuronales que incluyen las primeras capas de una red entrenada pueden mejorar la identificación de prestatarios con altas pérdidas esperadas. Los supervisores pueden entonces exigir a las instituciones financieras que provisionen exposiciones que no estén suficientemente cubiertas.

Equilibrar las oportunidades y los desafíos

Los ejemplos anteriores ilustran las oportunidades para que el aprendizaje automático y la IA aborden los problemas que están en el centro de los mandatos de los bancos centrales. Sin embargo, también hay nuevos desafíos, algunos más generales y otros más específicos para los bancos centrales.

Un problema general es el conflicto entre la exactitud y la «interpretabilidad/explicabilidad». Los modelos sofisticados de aprendizaje automático pueden llegar a ser casi perfectos en la predicción. Pero dado que muchas variables interactúan de manera compleja y no lineal, puede ser difícil interpretar qué tan importantes son las diferentes variables de entrada para el resultado. Por lo tanto, una buena predicción puede venir a costa de aceptar que el modelo subyacente es una «caja negra». Esto puede, por ejemplo, dificultar la evaluación de los sesgos discriminatorios en los algoritmos, especialmente cuando estos han sido entrenados con conjuntos de datos sesgados. La explicabilidad limitada significa además que es difícil explicar el comportamiento del modelo en términos humanos; Por ejemplo, por qué se prevé que la inflación suba o por qué se rechazó una solicitud de hipoteca. En el caso de los modelos de IA gen, el problema va aún más allá, ya que sufren el «problema de las alucinaciones». Estos modelos pueden presentar una respuesta objetivamente incorrecta como si fuera correcta. El problema de la alucinación implica que los LLM necesitan supervisión humana, especialmente en tareas que requieren razonamiento lógico (Pérez-Cruz y Shin (2024)).

Para los bancos centrales, el uso de datos no estructurados puede ofrecer información valiosa que puede ayudar a resolver problemas que antes eran intratables. La conversión manual de datos no estructurados, en particular texto, en forma estructurada requiere mucho tiempo, es propensa a errores humanos e inviable a mayor escala. Como dejan claro los ejemplos anteriores, los LLM pueden ayudar a los bancos centrales a analizar una amplia gama de datos textuales, como la actividad en las redes sociales, las noticias financieras y los propios informes de los bancos centrales (confidenciales o públicos).

Sin embargo, el uso de datos no estructurados y, a menudo, personales plantea nuevos desafíos en términos de marcos legales y privacidad de datos. Tradicionalmente, la mayoría de los datos se recopilaban y alojaban en instituciones públicas con derechos de acceso claramente definidos y procesos sólidos de garantía de la calidad de los datos. Pero ahora, grandes franjas de datos son creadas por individuos y empresas y residen en el sector privado, a veces con poca documentación disponible públicamente. La formación o el perfeccionamiento de los LLM pueden requerir cantidades significativas de datos, que pueden obtenerse, por ejemplo, mediante el web scraping de información de plataformas de mercado o redes sociales, pero para los que los marcos legales a menudo siguen siendo poco claros sobre cómo y para qué fines pueden utilizarse. La disponibilidad de datos personales no estructurados también plantea preocupaciones sobre la ética y la privacidad. Los ciudadanos tienen derecho a la privacidad y pueden sentirse incómodos con el escrutinio de sus datos por parte de los bancos centrales. Si bien las tecnologías de mejora de la privacidad están mejorando constantemente, aún no son una opción predeterminada en los modelos de IA.

Un mayor uso de la IA también podría tener profundas implicaciones para las inversiones de los bancos centrales en tecnología de la información (TI) y capital humano. Proporcionar la potencia informática y el software adecuados, así como la formación del personal existente, implica altos costes iniciales. Mientras tanto, contratar nuevo personal o retener al personal existente con la combinación adecuada de conocimientos económicos y habilidades de programación puede ser un desafío: existe una gran demanda de este recurso y las instituciones públicas a menudo no pueden igualar los salarios del sector privado para los mejores científicos de datos.

Sin embargo, estas inversiones podrían, con el tiempo, producir un aumento de la productividad. Los ejemplos anteriores sugieren que el uso del aprendizaje automático y la IA puede aumentar notablemente la productividad del personal, en particular en algunas tareas que requieren mucho tiempo y que requieren trabajo cognitivo, como resumir y extraer información de un texto (Brynjolfsson et al (2023), Noy y Zhang (2023)). Por ejemplo, los sistemas de IA podrían actuar como «copilotos» de los equipos de supervisión humanos aprendiendo de una combinación de datos regulatorios, acciones de supervisión anteriores y desarrollos más amplios del mercado. La IA también podría mejorar el análisis al liberar el tiempo de los economistas para interpretar los datos en lugar de recopilarlos y limpiarlos. Sin embargo, la IA no hará que los humanos sean obsoletos. La incorporación de la retroalimentación de expertos puede mejorar los modelos y mitigar el problema de las alucinaciones. La experiencia empresarial del personal ayuda a identificar dónde los modelos añaden más valor, así como cómo adaptarlos a las tareas específicas de los bancos centrales.

Por último, el auge de los LLM y la IA generativa ha renovado la preocupación por la dependencia de unos pocos proveedores externos. Las grandes economías de escala significan que los modelos de base más poderosos son proporcionados por unas pocas grandes empresas de tecnología. Más allá de los riesgos generales que la concentración del mercado supone para la innovación y el dinamismo económico, esta elevada concentración de recursos podría crear importantes riesgos de estabilidad financiera, operativos y reputacionales. Por ejemplo, una mayor dependencia de los LLM y la IA de generación por parte de unas pocas empresas hace que el sistema financiero sea susceptible a los efectos indirectos de los fallos informáticos o de los ciberataques a estos proveedores. Las interrupciones entre los proveedores también podrían generar riesgos operativos para los bancos centrales y repercutir en su capacidad para cumplir sus mandatos. El riesgo de que los problemas operativos conduzcan a costes de reputación es muy importante, ya que el mayor activo de los bancos centrales es la confianza del público (Doerr et al (2022)). Al mismo tiempo, si muchas instituciones adoptan los mismos algoritmos de primera clase, su comportamiento durante los episodios de estrés podría ser cada vez más parecido y dar lugar a fenómenos indeseables como el acaparamiento de liquidez, las corridas interbancarias y las ventas de liquidación (Danielson y Uthemann (2023)).

Estas lecciones subrayan los beneficios de la cooperación entre los bancos centrales y otras autoridades públicas. El intercambio de conocimientos y la puesta en común de conocimientos especializados están bien establecidos en la comunidad de bancos centrales, y el mandato de política pública de los bancos centrales ofrece un margen considerable para la cooperación, así como para establecer una comunidad de práctica para el aprendizaje automático y la IA. La colaboración de los bancos centrales y el intercambio de experiencias también podrían ayudar a identificar las áreas en las que la IA aporta más valor y cómo aprovechar las sinergias. Los estándares de datos podrían facilitar la recopilación automatizada de datos relevantes de diversas fuentes oficiales, mejorando así el entrenamiento y el rendimiento de los modelos de aprendizaje automático que utilizan datos macroeconómicos (Araujo (2023)). Además, el uso compartido de código o modelos previamente entrenados es muy prometedor.

La banca central es especialmente adecuada para la aplicación de técnicas de aprendizaje automático, dada la disponibilidad de datos estructurados y no estructurados, así como la necesidad de un análisis riguroso en apoyo de las políticas. Es probable que las sinergias entre el aprendizaje automático y las disciplinas básicas de la banca central, como la economía, la estadística y la econometría, sitúen a los bancos centrales a la vanguardia de los avances en IA.


Referencias

Araujo, D K G (2023): «gingado: una biblioteca de aprendizaje automático centrada en la economía y las finanzas», BIS Working Papers, No. 1122.

Araujo, D K G, G Bruno, J Marcucci, R Schmidt y B Tissot (2022): «Aplicaciones de aprendizaje automático en la banca central: una visión general», Boletín de la CFI, No. 57.

——— (2023): «La ciencia de datos en la banca central: aplicaciones y herramientas», Boletín de la CFI, No. 59.

Athey, S y G Imbens (2021): «Métodos de aprendizaje automático que los economistas deberían conocer», Annual Review of Economics, No. 11, pp. 685-725.

Centro de Innovación del BIS (BISIH) (2023): Proyecto Aurora: el poder de los datos, la tecnología y la colaboración para combatir el blanqueo de capitales a través de las instituciones y las fronteras, mayo.

Brynjolfsson, E, D Li y L Raymond (2023): «Generative AI at work» (La IA generativa en el trabajo), NBER Working Papers, No. 31161.

Danielson, J y A Uthemann (2023): «Sobre el uso de la inteligencia artificial en las regulaciones financieras y el impacto en la estabilidad financiera», mimeo.

Doerr, S, L Gambacorta y J Serena (2021): «Big data and machine learning in central banking» (Big data y aprendizaje automático en la banca central), BPI Working Papers, No. 930.

Doerr, S, L Gambacorta, T Leach, B Legros y D Whyte (2022): «Cyber risk in central banking» (Riesgo cibernético en la banca central), Documentos de trabajo del BPI, No. 1039.

Gambacorta, L, B Kwon, T Park, P Patelli y S Zhu (2024): «CB-LMs: language models for central banking», BPI Working Papers, de próxima publicación.

Noy, S y W Zhang (2023): «Evidencia experimental sobre los efectos de productividad de la inteligencia artificial generativa», Science, vol. 6654, n.º 381, pp. 187-92.

Pérez-Cruz, F y H S Shin (2024): «Probando los límites cognitivos de los grandes modelos lingüísticos», Boletín BIS, No. 83.


Publicado originalmente: https://www.bis.org/publ/bisbull84.pdf

Deja una respuesta