Discurso de la Sra. Sarah Breeden, Vicegobernadora de Estabilidad Financiera del Banco de Inglaterra, en la Conferencia Conjunta de la HKMA y el Banco de Pagos Internacionales (BPI) «Oportunidades y desafíos de las tecnologías emergentes en el ecosistema financiero», Hong Kong, 31 de octubre de 2024.
Las opiniones expresadas en este discurso son las del orador y no las del BIS.
Discurso del banco central | 04 de noviembre de 2024
Por: Sarah Breeden
Texto completo en formato PDF (29kb) | 9 páginas
Hoy voy a hablar sobre lo que el creciente poder y uso de la Inteligencia Artificial (IA), en particular la IA generativa1 podría significar para la estabilidad financiera, y cómo deberían responder los bancos centrales y los reguladores.
A continuación, voy a empezar por la premisa de que los modelos de IA generativa tienen características distintivas en comparación con otras tecnologías de modelado. Pueden aprender y evolucionar de forma autónoma y rápida, basándose en una amplia gama de datos, con resultados que no siempre son interpretables o explicables y objetivos que pueden no ser completamente claros ni estar totalmente alineados con los objetivos finales de la sociedad.
Se espera que la IA aporte considerables beneficios potenciales para la productividad y el crecimiento en el sector financiero y el resto de la economía. Pero para que el sector financiero aproveche esos beneficios, nosotros, como reguladores financieros, debemos tener marcos de políticas diseñados para gestionar los riesgos para la estabilidad financiera que conllevan. La estabilidad económica sustenta el crecimiento y la prosperidad. Sería contraproducente permitir que la IA la socave.
Además, si bien hay una incertidumbre significativa sobre hasta qué punto y con qué velocidad se adoptará la IA, no queremos quedar en la posición de elegir entre, por un lado, permitir que una nueva y poderosa tecnología amenace la estabilidad financiera y, por el otro, impedir su uso y perder crecimiento e innovación, simplemente porque no tenemos los marcos de políticas para permitir su adopción segura.
El sector de servicios financieros se encuentra en las primeras etapas de la adopción de GenAI, pero, de cara al futuro, creo que debemos prestar atención a dos cuestiones:
- En primer lugar, a nivel micro prudencial (donde buscamos garantizar la seguridad y solidez de las empresas individuales), los bancos centrales y los reguladores financieros deben seguir asegurándose de que los marcos regulatorios independientes de la tecnología sean suficientes para mitigar los riesgos para la estabilidad financiera que plantea la IA, a medida que los modelos se vuelven cada vez más poderosos y aumenta su adopción. Debemos centrarnos en particular en garantizar que los gerentes de las empresas financieras puedan comprender y gestionar lo que hacen sus modelos de IA a medida que evolucionan de manera autónoma bajo sus pies.
- En segundo lugar, debemos estar atentos a la posible necesidad de intervenciones macro prudenciales para apoyar la estabilidad del sistema financiero en su conjunto. Debemos mantener bajo revisión nuestros perímetros regulatorios, en caso de que el sistema financiero se vuelva más dependiente de la tecnología de inteligencia artificial y de sistemas de infraestructura compartidos. Y nuestros marcos de pruebas de estrés podrían evolucionar con el tiempo para evaluar si los modelos de inteligencia artificial utilizados «en la primera línea» de los negocios de las empresas financieras podrían interactuar entre sí de maneras que son difíciles de predecir ex ante; por ejemplo, cuando se utilizan para transacciones, ¿podríamos ver formas sofisticadas de manipulación o transacciones más concurridas en tiempos normales que exacerben la volatilidad del mercado en situaciones de estrés?
Para ser claros, no creo que en el Banco de Inglaterra estemos todavía en el punto en que necesitemos cambiar nuestro enfoque micro prudencial agnóstico en materia de tecnología o en el que sea necesaria una política macro prudencial. Pero el poder y el uso de la IA están creciendo rápidamente y no debemos ser complacientes. Sabemos por la experiencia pasada con la innovación tecnológica en otros sectores de la economía que es difícil abordar retrospectivamente los riesgos una vez que el uso alcanza una escala sistémica. 3
También reconozco que muchas de las cuestiones relacionadas con la IA podrían tener implicaciones más amplias, que los gobiernos decidirán cómo gestionar mejor en toda la economía en su conjunto. Pero dada nuestra responsabilidad por la estabilidad financiera, debemos considerar qué podría ser necesario (si es que hay algo) en el sistema financiero antes de cualquier acción gubernamental más amplia.
Para ello, estamos lanzando un Consorcio de IA del sector privado y expertos en IA para ayudarnos a entender más profundamente no sólo los beneficios potenciales de la IA sino también los diferentes enfoques que las empresas están adoptando para gestionar aquellos riesgos que podrían representar riesgos para la estabilidad financiera. 4 Analizaremos qué podemos hacer para difundir ampliamente las mejores prácticas en la industria y si se necesitan más directrices y barreras regulatorias. Y nuestro Comité de Política Financiera (FPC) publicará su evaluación del impacto de la IA en la estabilidad financiera y establecerá cómo monitoreará la evolución de esos riesgos en el futuro. Al hacerlo, trabajaremos con la Autoridad de Conducta Financiera del Reino Unido (FCA), el gobierno y las contrapartes internacionales para apoyar la adopción segura de la IA como la mejor contribución que podemos hacer para aprovechar sus beneficios para el crecimiento.
El uso de la IA en los servicios financieros
El contexto de mis comentarios de hoy es, por supuesto, que la IA se está utilizando para una amplia y creciente gama de aplicaciones en los servicios financieros.
Durante los últimos cinco años, el Banco de Inglaterra y la FCA han estado realizando una encuesta periódica sobre cómo las empresas de servicios financieros en el Reino Unido están utilizando la inteligencia artificial y el aprendizaje automático. 5 La última, a principios de este año, abarcó a casi 120 empresas, incluidos bancos, aseguradoras, administradores de activos, prestamistas no bancarios e infraestructuras del mercado financiero. Publicaremos los resultados completos pronto.
Pero para adelantar algunos de los titulares, hemos descubierto que el 75% de las empresas encuestadas ya están utilizando algún tipo de IA en sus operaciones, incluidos todos los grandes bancos, aseguradoras y gestores de activos del Reino Unido e internacionales que respondieron. Eso supone un aumento respecto del 53% en 2022.
El 17% de todos los casos de uso utilizan modelos básicos, incluidos modelos de lenguaje grandes como GPT4 de OpenAI, que aplican aprendizaje automático avanzado (el llamado aprendizaje profundo) a grandes cantidades de datos, de modo que se puedan aplicar en una amplia gama de casos de uso.
Algunos de los primeros casos de uso más frecuentes de la IA han tenido un riesgo bastante bajo desde el punto de vista de la estabilidad financiera. El 41% de los encuestados utiliza IA para optimizar los procesos internos, mientras que el 26% utiliza IA para mejorar la atención al cliente, lo que ayuda a mejorar la eficiencia y la productividad.
Pero muchas empresas también están utilizando la IA para mitigar los riesgos externos que enfrentan, como los ciberataques (37%), el fraude (33%) y el lavado de dinero (20%). Por ejemplo, los sistemas de pago han utilizado durante mucho tiempo el aprendizaje automático para bloquear pagos sospechosos, y un sistema de tarjetas está actualizando este año su sistema de detección de fraudes utilizando un modelo básico entrenado en un supuesto billón de puntos de datos.
Están surgiendo casos de uso potencialmente más significativos desde una perspectiva de estabilidad financiera. El 16% de los encuestados está utilizando IA para la evaluación del riesgo crediticio, y un 19% adicional planea hacerlo en los próximos tres años. Mientras tanto, el 11% la está utilizando para el comercio algorítmico, y un 9% adicional planea hacerlo en los próximos tres años. Y el 4% de las empresas ya está utilizando IA para la gestión de capital, y un 10% adicional planea usarla en los próximos tres años.
¿Qué hace que la IA sea diferente a la tecnología de modelado anterior?
Ahora quisiera dedicar algún tiempo a cinco características que se combinan para hacer que los modelos de IA merezcan una consideración particular, y por qué creo que podrían ser importantes para la estabilidad financiera.
En primer lugar, los modelos de IA pueden ser dinámicos. Las formas en que convierten los datos de entrada en resultados de salida se actualizan automáticamente a medida que aprenden de los nuevos datos. Por lo tanto, la forma en que se comportan puede, con el tiempo, desalinearse con la intención original.
En el contexto del sistema financiero, los modelos de IA utilizados para el comercio, con una función objetivo de ganar dinero, podrían evolucionar de manera tal de lograr ese objetivo aprendiendo el valor de amplificar activamente un shock externo a los precios del mercado, o de coludir de manera rentable y autónoma con otro modelo de IA.
El segundo desafío particular de los modelos de IA es su potencial falta de explicabilidad. Se trata de modelos típicamente complejos, con relaciones entre entradas y salidas que evolucionan constantemente, como acabo de describir, y todo esto ocurre a una velocidad de procesamiento considerable. 6
De nuevo, en el contexto del sistema financiero, esto plantea desafíos. Si un modelo de IA clasifica ciertas transacciones como fraudulentas o de bajo riesgo, o a ciertos prestatarios potenciales como de buen o mal crédito, de maneras que no podemos explicar fácilmente, ¿cómo sabemos si se trata de un error del modelo o del hallazgo de un patrón importante en los datos que el análisis tradicional no puede detectar? ¿Cómo podemos determinar si un modelo de IA que nos dice que las hipotecas de alto riesgo son de bajo riesgo es erróneo o no?
El tercer desafío particular de los últimos modelos de IA es la amplitud de los datos con los que se entrenan, en particular en el caso de los modelos básicos que aprenden de enormes cantidades de grandes conjuntos de datos de diferentes fuentes, a una escala totalmente diferente a la de los modelos tradicionales. A esa escala, y a la luz de los desafíos de explicabilidad de los que acabo de hablar, saber si estamos introduciendo errores de especificación en los modelos de IA a través de datos de entrenamiento de baja calidad o sesgados es claramente extremadamente difícil.
En cuarto lugar, los modelos de base parecen especialmente propensos a que los usuarios se agrupen en torno a un pequeño número de modelos comunes. El capital intelectual, la capacidad de procesamiento y los datos necesarios para diseñar y ejecutar dichos modelos hacen que sea una tarea muy costosa, por lo que su desarrollo parece tender hacia el oligopolio. De hecho, en nuestra encuesta de este año, el 44% de los modelos de IA de terceros utilizados por las empresas procedían de los tres principales proveedores de modelos, en comparación con el 18% en la encuesta anterior realizada en 2022, antes de que el lanzamiento de ChatGPT acelerara el interés en los modelos de base y la IA generativa.
Me parece plausible que podamos ver un uso generalizado de modelos básicos comunes, de los cuales dependan las aplicaciones posteriores, no sólo en todo el sistema financiero, sino en toda la economía y a través de las fronteras. Esto introduce fragilidades macro: un incidente con un modelo básico o un proveedor de la nube que lo respalde podría tener implicaciones para todo el sistema. O los modelos comunes podrían aumentar los riesgos de respuestas correlacionadas de los participantes del mercado a los shocks que amplifican el estrés.
En quinto y último lugar, los modelos de IA son autónomos: ajustan automáticamente la forma en que convierten las entradas en salidas y, en el caso de la IA generativa, producen resultados enriquecidos en forma de texto, imágenes y vídeo. Eso significa que, en teoría, los modelos podrían utilizarse para determinar resultados y tomar decisiones sin un gerente de alto nivel que comprenda suficientemente la lógica de esas decisiones y sea directamente responsable de ellas. Más de la mitad (55%) de los casos de uso de IA en nuestra última encuesta tienen algún grado de toma de decisiones automatizada, con una división de aproximadamente 50:50 entre la toma de decisiones semiautónoma (donde hay intervención humana en algún punto del ciclo de toma de decisiones) y los casos en que la toma de decisiones es completamente automática. Eso claramente plantea desafíos para la gestión y la gobernanza de las empresas financieras, y para los supervisores. Si bien la forma en que una persona toma decisiones basadas en información también puede ser compleja, opaca y difícil de explicar, una persona puede ser obligada a rendir cuentas.
¿Qué podría significar la IA para la supervisión micro prudencial?
A pesar de estas características únicas, los reguladores financieros (incluido el Reino Unido) han tendido a adoptar un enfoque agnóstico en cuanto a la tecnología a la hora de abordar sus riesgos. En otras palabras, hemos esperado que las empresas cumplan con nuestras normas existentes sobre gestión de datos, gestión de riesgos de modelos, gobernanza y resiliencia operativa (incluida la dependencia de terceros), independientemente de la tecnología que utilicen.
Por supuesto, es un buen punto de partida. Un enfoque agnóstico en materia de tecnología permite que los marcos regulatorios sean a prueba de futuro, centrándose en lo que importa (los resultados) y sin exigir a los reguladores una previsión perfecta de cómo evolucionará la tecnología para lograrlos.
Hasta la fecha, un enfoque agnóstico en materia de tecnología parece haber funcionado bastante bien en el caso de la IA y el aprendizaje automático. Las empresas han sido bastante cautelosas en la forma en que han implementado la IA en sus operaciones. En nuestro diálogo con ellas, incluido un documento de debate que publicamos con la Autoridad de Conducta Financiera del Reino Unido en 2022, muchos de los encuestados pensaban que no había barreras regulatorias para la seguridad y la responsabilidad de la IA en el Reino Unido. Esa es una buena noticia. Significa que nuestra regulación no está impidiendo los beneficios de crecimiento y productividad de la tecnología que mencioné antes. 7
Sin embargo, la pregunta que debemos seguir planteándonos, a medida que los modelos de IA se vuelven cada vez más potentes y se adoptan cada vez más ampliamente en una gama más amplia de casos de uso, es si podemos seguir confiando en los marcos regulatorios existentes, ya que estos no fueron diseñados para contemplar modelos autónomos y en evolución con potencial para capacidades de toma de decisiones. ¿Sigue siendo suficiente un enfoque agnóstico de la tecnología para mitigar los riesgos, o la IA requiere un enfoque algo diferente? Y dado que la IA se utiliza en toda la economía y no solo en las finanzas, ¿cómo podrían nuestras expectativas para el desarrollo de modelos implementados en finanzas coincidir con las de los modelos implementados en otras industrias?
Por eso continuamos trabajando en IA: permítanme destacar algunas áreas que estamos particularmente interesados en explorar.
En cuanto a la gestión del riesgo de los modelos, ¿son suficientes los marcos regulatorios y de supervisión existentes para garantizar que las empresas comprendan lo que hacen sus modelos de IA a medida que evolucionan de manera autónoma, ahora y en el futuro, y son capaces de limitarlo cuando sea necesario? Los encuestados en nuestro Documento de debate destacaron el riesgo de que los principios de gestión del riesgo de los modelos que establecimos8 para los bancos el año pasado (que abarcan el modelado cuantitativo en general, no solo la IA) podrían no ser suficientes para garantizar que los usuarios de los modelos comprendan plenamente los modelos de IA de terceros que implementan en sus empresas. La explicabilidad limitada de los modelos de IA es un tema de especial interés. Por lo tanto, como reguladores, debemos considerar más a fondo qué significa explicabilidad en el contexto de la IA generativa, qué controles deberíamos esperar que tengan las empresas y qué significa eso para nuestros marcos regulatorios y de supervisión.
En los comentarios a nuestro documento de debate también se señaló la falta de normas claras y de amplia aplicación en relación con los datos con los que se entrenan los modelos de IA. ¿Podemos hacer más para garantizar que las empresas entrenen los modelos de IA con datos de entrada imparciales y de alta calidad; que puedan rastrear en un grado razonable cómo responde el comportamiento del modelo a los cambios en aspectos particulares de esos datos de entrenamiento; y que puedan comprender en qué casos el modelo depende especialmente de determinados segmentos de los datos de entrenamiento?
Por último, en lo que respecta a la gobernanza, un hallazgo sorprendente de nuestra última encuesta es que solo un tercio de los encuestados se describen a sí mismos como personas que comprenden por completo las tecnologías de IA que han implementado en sus empresas. Por supuesto, en cierto nivel no es sorprendente que esto no sea del 100%: se trata de una tecnología que evoluciona rápidamente y hay un elemento de aprendizaje práctico. Dicho esto, a medida que las empresas consideren cada vez más el uso de la IA en áreas de mayor impacto de sus negocios, como la evaluación del riesgo crediticio, la gestión de capital y el comercio algorítmico, deberíamos esperar un grado más fuerte y riguroso de supervisión y cuestionamiento por parte de sus directivos y juntas directivas, en particular dada la autonomía, el dinamismo y la falta de explicabilidad de la IA.
La mayoría de los encuestados en nuestro documento de debate coincidieron en que sería útil contar con una guía práctica sobre qué «medidas razonables» se podría esperar que la alta dirección hubiera adoptado con respecto a los sistemas de IA para cumplir con los requisitos reglamentarios. La guía actual se basa en una época en la que la tecnología de toma de decisiones autónoma, como la IA, no estaba muy extendida.
El documento de debate también planteó la cuestión de si las expectativas regulatorias para los altos directivos de las empresas (el Régimen de Certificación y Altos Directivos) deberían asignar una responsabilidad específica para la IA, a fin de crear un incentivo para una rendición de cuentas significativa por la implementación y la supervisión de la IA dentro de las empresas. Si bien la mayoría de los encuestados se mostraron cautelosos al respecto, deberíamos seguir examinando formas de mejorar la gobernanza eficaz de la IA, lo que incluye pensar en dónde podríamos estar satisfechos con que los modelos de IA tomen decisiones automatizadas y dónde (y en qué grado) debería haber un ser humano en el proceso.
¿Qué podría significar la IA para la política macro prudencial?
He hablado hasta ahora sobre los aspectos micro prudenciales de la IA: ¿cómo podría el uso de la IA por parte de empresas individuales plantear riesgos para su seguridad y solidez y, a través de ello, su estabilidad financiera?
Pero incluso si las empresas individuales gestionan bien los riesgos micro prudenciales, la IA podría plantear riesgos para la estabilidad financiera si no tiene en cuenta el impacto de sus acciones en el resto del sistema financiero. Mantener seguro el sistema financiero es el objetivo de los responsables de las políticas macro prudenciales, como el Comité de Política Monetaria del Banco de Inglaterra. De hecho, el Comité publicará a principios del año próximo su evaluación del impacto de la IA en la estabilidad financiera y establecerá cómo monitoreará la evolución de esos riesgos.
Un tema que nos preocupa constantemente como responsables de políticas macro prudenciales es la interconexión: las acciones de una institución pueden afectar a otras, las empresas pueden convertirse en nodos críticos y las empresas pueden quedar expuestas a debilidades comunes. La IA podría aumentar esa interconexión y la probabilidad de que los niveles actuales de interconexión amenacen la estabilidad financiera.
Ya he hablado un poco sobre cómo el uso de modelos de IA básicos podría hacer que el sector financiero dependa de sistemas de infraestructura y tecnología de IA compartidos. Si el uso de modelos de IA se vuelve más omnipresente en las finanzas, estos podrían, a su vez, depender de un pequeño número de proveedores para el almacenamiento de datos, el cálculo y la implementación de modelos, y de un pequeño número de agregadores de datos para los datos de entrenamiento. Las interrupciones en el funcionamiento de estos proveedores de servicios podrían provocar que los modelos de IA que dependen de su infraestructura dejen de estar disponibles o tengan un rendimiento deficiente.
La IA también podría aumentar la probabilidad de que la interconexión existente se convierta en un riesgo para la estabilidad financiera, en particular a través de ciberataques. Por supuesto, la IA podría mejorar las capacidades de ciberdefensa de los nodos críticos del sistema financiero, pero también podría ayudar a los atacantes, por ejemplo, mediante deepfakes creados por IA generativa para aumentar la sofisticación de los ataques de phishing.
Existen otros canales a través de los cuales la IA puede tener consecuencias de riesgo sistémico, en particular si se la utiliza más en el comercio. Por ejemplo, como se señala en el reciente Informe sobre la estabilidad financiera mundial del FMI Se abre en ventana nueva. La IA podría provocar una mayor velocidad y volatilidad del mercado en situaciones de estrés.
En concreto, el hecho de que varios participantes del mercado utilicen los mismos modelos de IA y dependan de un pequeño número de proveedores de servicios de IA para realizar operaciones podría dar lugar a un comportamiento comercial cada vez más correlacionado. En particular, cuando esas operaciones abarrotadas se financian mediante apalancamiento, un shock que causa pérdidas para esas estrategias comerciales podría amplificarse y convertirse en una tensión de mercado más grave a través de ciclos de retroalimentación de ventas forzadas y movimientos adversos de los precios.
De hecho, algunos modelos comerciales de IA podrían responder a ese escenario tratando de explotar las vulnerabilidades en los algoritmos y estrategias comerciales de otras empresas de una manera que es individualmente racional pero que tiene consecuencias adversas para el sistema financiero en general, al desencadenar o amplificar los movimientos de precios de una manera que es desestabilizadora para la estabilidad financiera.
También existe la posibilidad de que se produzcan riesgos de conducta que afecten a todo el sistema. Si la IA determina resultados y toma decisiones, ¿cuáles serían las consecuencias si, después de unos años, esos resultados y decisiones fueran impugnados legalmente y fuera necesario un resarcimiento masivo?
Tenemos algunas herramientas en nuestro arsenal macro prudencial que podemos utilizar para abordar estas cuestiones.
De hecho, la dependencia de proveedores de tecnología comunes ya se refleja en el Reino Unido, ya que el FPC recomendó en 2021 la creación de un régimen para proveedores de servicios externos críticos (CTP). Ese régimen entró en vigor el año pasado y permite que el Tesoro del Reino Unido designe a un pequeño número de terceros que prestan servicios importantes para varias empresas y que son difíciles de sustituir con facilidad o rapidez para que los reguladores financieros los supervisen directamente. El régimen estuvo motivado por una preocupación más general que la de la IA en concreto, y reconoció los límites de lo que una empresa financiera individual puede lograr mediante la gestión de sus propias relaciones con terceros. El Banco, la Autoridad de Regulación Prudencial (PRA) y la FCA han consultado sobre las normas que se aplicarán a esos terceros y están considerando qué terceros recomendar al Tesoro para su designación.
Sin embargo, el régimen de CTP está diseñado para abordar el riesgo de falla o interrupción operativa en un nodo crítico. La IA podría conducir a un tipo diferente de dependencia, ya que se esperaría que esas empresas se aseguren de que el modelo de terceros cumpla con los mismos estándares de gestión del riesgo de modelo y de datos que si hubiera sido desarrollado internamente. Para las empresas que utilizan los modelos básicos más complejos desarrollados por terceros para casos de uso materiales en sus negocios, eso podría ser difícil de hacer en la práctica sin visibilidad sobre cómo está diseñado el modelo y la capacidad de interrogarlo. A su debido tiempo, dependiendo de cómo evolucione el uso de la IA por parte de las empresas financieras (en particular si comienza a usarse de manera material para el comercio o la evaluación de riesgos básicos), es posible que tengamos que volver a pensar en la adecuación del perímetro regulatorio y si podrían ser necesarios algunos requisitos que se apliquen directamente a los propios proveedores de modelos.
La otra herramienta que podemos utilizar para detectar las vulnerabilidades de la estabilidad financiera a partir de la IA son las pruebas de estrés. Tal vez podríamos utilizarlas para entender cómo los modelos de IA utilizados para las transacciones, ya sean de bancos o de entidades no bancarias, podrían interactuar entre sí. Podríamos tratar de entender mejor las funciones de reacción; tratar de identificar dónde los elementos de las funciones objetivas podrían hacer que evolucionen de maneras que amplifiquen activamente los shocks y socaven la estabilidad financiera; y utilizar estos resultados para informar dónde se requiere una intervención.
¿Qué debemos hacer a nivel internacional?
Además de abordar estas cuestiones a nivel nacional, también necesitamos explorarlas con nuestros pares internacionales.
La comunidad reguladora internacional ha tenido un gran éxito en la comprensión conjunta de nuevos problemas e innovaciones (clima, nube, criptomonedas y monedas estables, por nombrar solo algunas), donde hemos aprendido juntos, unos de otros, y hemos desarrollado principios compartidos sobre cómo abordar esos desafíos transfronterizos.
Hasta la fecha, a nivel gubernamental, hemos visto colaboración internacional en cuestiones principales de seguridad de la IA, incluso a través de las cumbres de Bletchley y Seúl.
De cara al futuro, será crucial que los organismos internacionales y las autoridades nacionales sigan colaborando. Esto ayudará a garantizar que tengamos la capacidad de supervisar la adopción de la IA en todo el sistema financiero mundial, evaluar si nuestros marcos regulatorios actuales abordan adecuadamente las vulnerabilidades y considerar formas de mejorarlas cuando sea necesario. Nuestra cooperación también puede fortalecer nuestra resiliencia colectiva en caso de que actores maliciosos intenten usar la IA para desestabilizar el sistema financiero, incluso mediante ataques cibernéticos. Celebro el trabajo de los grupos internacionales, incluidos el FSB, la OICV y el G7, para considerar las implicaciones de la IA y desarrollar un entendimiento común. El trabajo de políticas puede ser prematuro ahora, pero esta parte de las finanzas está avanzando rápidamente. Deberíamos seguir mejorando juntos nuestra comprensión de la IA para que, si en el futuro se necesitan directrices y barandillas, estemos preparados.
Conclusión
Los modelos de IA cuentan con una combinación única y poderosa de características. Como dije, aprenden y evolucionan de manera autónoma y rápida, basándose en una amplia gama de datos, con resultados que no siempre son interpretables o explicables y objetivos que pueden no ser completamente claros ni estar alineados con los objetivos de la sociedad.
Ni siquiera los expertos se ponen de acuerdo sobre hasta qué punto y con qué velocidad evolucionará la IA (incluso en el ámbito financiero). Por eso, debemos ser humildes y estar preparados. Sin apresurarnos a adoptar medidas políticas precipitadas, debemos seguir analizando si nuestras políticas micro prudenciales y macro prudenciales siguen siendo suficientes para mantener la estabilidad financiera. De ese modo, podremos aprovechar los considerables beneficios de la IA para el crecimiento económico de una manera segura y sostenible.
Quisiera agradecer a Michael Yoganayagam su ayuda para redactar estas observaciones. También quisiera agradecer a Andrew Bailey, Colette Bowe, Mohammed Gharbawi, Bernat Gual-Ricart, Amy Lee, Owen Lock, Harsh Mehta, Tom Mutton, Danny Walker, Mei Jie Wang, Ewa Ward y Sam Woods por sus útiles aportaciones.
1 La IA generativa es un subconjunto de las tecnologías de aprendizaje automático e IA (IA/ML), que se distingue por su capacidad de crear contenido nuevo, incluido texto comprensible y significativo o lenguajes humanos, basado en los datos con los que fue entrenado.
2 Este discurso trata sobre las implicaciones para la estabilidad financiera del uso de la IA por parte de las empresas financieras. Por supuesto, el uso de la IA por parte de los propios bancos centrales también presenta muchas oportunidades para mejorar nuestros propios análisis y modelos, además de ayudar a fundamentar nuestro trabajo de políticas sobre el uso de la IA en las finanzas. Mi colega James Benford habló el mes pasado sobre cómo buscamos implementar eficazmente la IA dentro del Banco de Inglaterra.
3 Un análisis de las publicaciones en las redes sociales revela que tres londinenses se oponen abrumadoramente a la decisión de TfL de prohibir Uber | London Evening Standard | The Standard Abre en ventana nueva
4 propuestas para la adhesión al Consorcio de Inteligencia Artificial | Banco de Inglaterra
5 2022: Aprendizaje automático en los servicios financieros del Reino Unido | Banco de Inglaterra. 2019: Aprendizaje automático en los servicios financieros del Reino Unido | Banco de Inglaterra.
6 ¿Monstruos en las profundidades? – Discurso de Jonthan Hall, 7 de mayo de 2024. En este discurso, se señaló que, en 2014, los investigadores descubrieron que, con un cambio minúsculo en el campo de píxeles, una imagen de un panda podría ser clasificada incorrectamente por un modelo de IA como un gibón, aunque a los humanos no les pareciera que había cambiado en absoluto. Esto pone de relieve la posible falta de explicabilidad de los modelos de IA.
7 FS2/23 – Inteligencia artificial y aprendizaje automático | Banco de Inglaterra
8 SS1/23 – Principios de gestión del riesgo de modelos para bancos | Banco de Inglaterra
Acerca del autor

Publicada originalmente: https://www.bis.org/review/r241104j.pdf