Publicado el mayo 27, 2022 por Editor
Disfrutamos de la reflexión ofrecida en un reciente artículo de opinión de Jo Ann Barefoot sobre el caso de colocar la inteligencia artificial (IA) en el corazón de una regulación financiera digitalmente robusta. Ella postula que «hasta hace poco, no había suficientes datos en forma digitalizada, formateados como código legible por computadora, para justificar el uso de la IA. Hoy en día, hay tantos datos que no solo podemos usar la IA, sino que en muchos campos, como la regulación financiera, tenemos que usar la IA simplemente para mantenernos al día».
El artículo analiza los casos de uso en los que los reguladores podrían obtener más de los datos subutilizados, como la lucha contra el lavado de dinero, la prevención del fraude, la discriminación crediticia y los préstamos predatorios, y la comprensión de los riesgos relacionados con el clima. También examina algunos de los desafíos, incluidos el sesgo, la protección de datos y la calidad de los datos, señalando que los datos estructurados (como los creados al etiquetar documentos utilizando XBRL) son más fáciles de usar para la IA para obtener resultados significativos y de alta calidad.
«La digitalización de los datos puede resolver algunos problemas y causar otros», concluye. «La clave para lograr resultados óptimos es utilizar tanto los datos como la IA de manera reflexiva, diseñando cuidadosamente nuevos sistemas para evitar daños, al tiempo que aprovecha la capacidad de la IA para analizar volúmenes de información que abrumarían los métodos tradicionales de análisis».
Lea más aquí.
REGULACIÓN DE DIGITALIZACIÓN DE ANÁLISIS de IA
Nota del editor:
Este es un informe de política del Brookings Center on Regulation and Markets.
«Los datos son el nuevo petróleo». Originalmente acuñado En 2006 por el matemático británico Clive Humby, esta frase es posiblemente más adecuada hoy de lo que era entonces, ya que los teléfonos inteligentes rivalizan con los automóviles por relevancia y los gigantes de la tecnología saben más sobre nosotros de lo que nos gustaría admitir.
CEO, Cofundador – Alliance for Innovative Regulation
Al igual que lo hace para la industria de servicios financieros, la hiperdimitación de la economía presenta tanto oportunidades como peligros potenciales para los reguladores financieros. En el lado positivo, resmas de información están recientemente a su alcance, llenas de señales sobre los riesgos del sistema financiero que los reguladores pasan sus días tratando de entender. La explosión de datos arroja luz sobre el movimiento global de dinero, las tendencias económicas, las decisiones de incorporación de clientes, la calidad de la suscripción de préstamos, el incumplimiento de las regulaciones, los esfuerzos de las instituciones financieras para llegar a los desatendidos y mucho más. Es importante destacar que también contiene las respuestas a las preguntas de los reguladores sobre los riesgos de la nueva tecnología en sí. La digitalización de las finanzas genera nuevos tipos de peligros y acelera su desarrollo. Los problemas pueden estallar entre los exámenes reglamentarios programados y pueden acumularse imperceptiblemente debajo de la superficie de la información reflejada en los informes tradicionales. Gracias a la digitalización, los reguladores de hoy tienen la oportunidad de recopilar y analizar muchos más datos y ver gran parte de ellos en algo cercano al tiempo real.
El potencial de peligro surge de la preocupación de que el marco tecnológico actual de los reguladores carece de la capacidad de sintetizar los datos. La ironía es que esta avalancha de información es demasiado para que ellos la manejen. Sin mejoras digitales, el combustible de datos que los reguladores financieros necesitan para supervisar el sistema simplemente los hará sobrecalentarse.
Entra la inteligencia artificial.
En 2019, el entonces gobernador del Banco de Inglaterra, Mark Carney, argumentó que los reguladores financieros tendrán que adoptar técnicas de IA para mantenerse al día con los crecientes volúmenes de datos que fluyen hacia sus sistemas. Para dramatizar el punto, él dijo el banco recibe 65 mil millones de datos anuales de las empresas que supervisa y que revisarlo todo sería como «cada supervisor leyendo las obras completas de Shakespeare dos veces por semana, todas las semanas del año».
Eso fue hace tres años. Es casi seguro que el número es más alto hoy en día. Además, las cifras que citó solo cubrían información reportada por empresas reguladas. Omitió los volúmenes masivos de «Big Data» externos generados a partir de otras fuentes como registros públicos, medios de comunicación y redes sociales que los reguladores también deberían extraer para obtener información sobre los riesgos y otras tendencias.
Se desarrolló la IA hace más de 70 años. Durante décadas, los entusiastas predijeron que cambiaría nuestras vidas profundamente, pero pasó un tiempo antes de que la IA tuviera mucho impacto en la vida cotidiana. [1] La IA ocasionalmente fue noticia al realizar hazañas inteligentes, como watson de IBM superando a campeones humanos en Jeopardy en 2011, o AIs venciendo a maestros de juegos complejos como el ajedrez (en 1996) y Ir (en 2017). Sin embargo, fue solo recientemente que tales máquinas mostraron signos de ser capaces de resolver problemas del mundo real. ¿Por qué?
Una respuesta clave es que, hasta hace poco, no había suficientes datos en forma digitalizada, formateados como código legible por computadora, para justificar el uso de IA. [2] Hoy en día, hay tantos datos que no solo podemos usar la IA, sino que en muchos campos, como la regulación financiera, tenemos que usar la IA simplemente para mantenernos al día.
Como se discute más adelante, los reguladores financieros de todo el mundo se encuentran en las primeras etapas de exploración de cómo la IA y sus subramas de Aprendizaje Automático (ML), Procesamiento del Lenguaje Natural (PNL) y redes neuronales pueden mejorar su trabajo. Están sopesando cada vez más la adopción de la «tecnología de supervisión» (o «suptech») para monitorear a las empresas de manera más eficiente de lo que pueden con herramientas analógicas. Este cambio se está reflejando en la industria financiera por un movimiento para mejorar los sistemas de cumplimiento con técnicas similares de «tecnología regulatoria» («regtech»). Ambos procesos se ejecutan en una doble vía, con un objetivo que es convertir los datos en una forma digitalizada y el otro analizarlos algorítmicamente. Cumplir cualquiera de estos objetivos sin el otro tiene poco valor. Juntos, transformarán tanto la regulación financiera como el cumplimiento. Ofrecen la promesa de que la regulación, como todo lo demás que se digitaliza, puede ser mejor, más barata y más rápida, todo a la vez.
IMAGÍNESE SI LA IA YA FUERA EL MECANISMO PREDETERMINADO
Los reguladores financieros de todo el mundo generalmente han sido más activos en regular el uso de la IA por parte de la industria que adoptarlo para su propio beneficio. Sin embargo, abundan las oportunidades para las tácticas regulatorias y de aplicación de la ley impulsadas por la IA para combatir los problemas del mundo real en el sistema financiero. En una sección posterior, este documento analizará los principales casos de uso emergentes. Antes de hacerlo, vale la pena echar un vistazo a algunas áreas de bajo rendimiento regulatorio, tanto en el pasado como en el presente, y preguntarse si la IA podría haberlo hecho mejor.
Un ejemplo es el Programa de Protección de Cheques de Pago de $ 800 mil millones que el Congreso estableció en 2020 para proporcionar préstamos respaldados por el gobierno para pequeñas empresas que se recuperan de la pandemia. Más del 15% de los «préstamos» PPP, que representan $ 76 mil millones, contenían pruebas de fraude, según un estudio publicado el año pasado. Muchos casos involucraron a solicitantes de préstamos que usaban identidades falsas. Imagínese si los prestamistas que presentan solicitudes de garantía de préstamos o los sistemas de la Administración de Pequeñas Empresas que los estaban revisando hubieran tenido sistemas maduros basados en IA que podrían haber marcado un comportamiento sospechoso. Podrían haber detectado declaraciones falsas y evitado préstamos fraudulentos, protegiendo así el dinero de los contribuyentes y asegurando que sus valiosos fondos ayudaran a las pequeñas empresas necesitadas en lugar de financiar a los ladrones.
Se pueden encontrar dos ejemplos de la guerra en Ucrania. La invasión rusa ha provocado un toda una nueva gama de sanciones contra los oligarcas rusos que esconden riquezas en empresas fantasma y están luchando por mover su dinero sin ser detectados. Las instituciones financieras están obligadas a examinar cuentas y transacciones para identificar las transacciones de las entidades sancionadas. ¿Qué pasaría si ellos y las agencias de aplicación de la ley como la Red de Aplicación de Delitos Financieros (FinCEN) tuvieran análisis impulsados por IA para extraer y agrupar datos de todo el espectro de transacciones globales y encontrar los patrones que revelan la actividad de las partes sancionadas? Desafortunadamente, la mayoría de las instituciones financieras y agencias gubernamentales no tienen estas herramientas en la mano hoy en día.
El segundo ejemplo proviene de la rápida huida de millones de refugiados. atraer a los traficantes de personas a las fronteras del país buscando atrapar a mujeres y niños desesperados y venderlos como esclavos por trabajo y sexo. Los bancos están obligados por ley a mantener sistemas contra el lavado de dinero (AML) para detectar y reportar el movimiento de dinero que puede indicar trata de personas y otros delitos, pero estos sistemas son en su mayoría análogos y notoriamente ineficaz. La Oficina de las Naciones Unidas contra la Droga y el Delito estima que menos del 1% de los delitos financieros es atrapado. Los sistemas de cumplimiento impulsados por IA tendrían muchas más posibilidades de señalar las redes criminales dirigidas a Ucrania. Además, si esos sistemas hubieran estado en vigor en los últimos años, el comercio de la trata de personas podría no estar floreciendo. Tal como está hoy, se estima que 40 millones de personas están cautivas en la esclavitud humana moderna, y uno de cada cuatro de ellos es un niño.
En otro experimento mental, ¿qué pasaría si los reguladores bancarios en 2007 hubieran podido ver el alcance total de las interrelaciones entre los prestamistas hipotecarios de alto riesgo y las empresas de Wall Street como Bear Stearns, Lehman Brothers y AIG? Si los reguladores hubieran estado armados con datos digitales en tiempo real y análisis de IA, habrían estado monitoreando el riesgo de contagio en tiempo real. Podrían haber sido capaces de evitar la crisis financiera y con ella, la Gran Recesión.
Finalmente, ¿qué pasa con los préstamos justos? En 1968, los Estados Unidos prohibieron la discriminación por motivos de raza, religión y otros factores en los préstamos hipotecarios a través de la aprobación de la Ley de Vivienda Justa.[3] Con la posterior aprobación de la Ley de Igualdad de Oportunidades de Crédito y la Ley de Vivienda y Desarrollo Comunitario, ambas en 1974, el Congreso agregó la discriminación sexual a esa lista y amplió la aplicación de préstamos justos a todos los tipos de crédito. no solo hipotecas. [4] Eso fue hace casi 50 años.
Estas leyes han recorrido un largo camino hacia la lucha contra la discriminación directa y abierta, pero han sido mucho menos efectivas para erradicar otras formas de sesgo. Las decisiones de préstamo todavía producen «impactos dispares» en diferentes grupos de prestatarios, generalmente de maneras que perjudican desproporcionadamente a las clases protegidas como personas de color. Parte de esto surge del hecho de que la toma de decisiones crediticias de alto volumen debe basarse en medidas eficientes de solvencia, como los puntajes de crédito, que a su vez se basan en fuentes estrechas de datos. [5] ¿Qué pasaría si, hace 40 años, tanto los reguladores como la industria hubieran podido recopilar muchos más datos de riesgo y analizarlos con IA? ¿Cuántas personas más habrían sido consideradas solventes en lugar de que se les negara su préstamo? Durante cuatro décadas, ¿podrían las herramientas de IA haber cambiado la trayectoria de las oportunidades raciales en los Estados Unidos, que actualmente incluye una brecha de riqueza racial de $ 10 billones y la tasa de propiedad de vivienda afroamericana rezagada con respecto a la de los blancos? en 30 puntos porcentuales?
CÓMO LOS REGULADORES PRETENDEN SEGUIR EL RITMO DE LA TECNOLOGÍA QUE CAMBIA EXPONENCIALMENTE
En su 2018 libro titulado «Sin escalar«, el capitalista de riesgo Hemant Taneja argumentó que la explosión de cantidades de datos e IA continuará produciendo una aceleración sin precedentes de nuestra realidad digital. «En otros diez años, cualquier cosa que la IA no potencie parecerá sin vida y anticuada. Será como una nevera después de que se inventaron los refrigeradores eléctricos», escribió.
El horizonte temporal estimado de Taneja está ahora a solo seis años de distancia. En el sector financiero, esto plantea un desafío desalentador para que los reguladores diseñen y construyan suptech lo suficientemente potentes antes de que la tecnología cambiante de la industria pueda abrumar su capacidad de supervisión. Afortunadamente, los reguladores en los Estados Unidos y en todo el mundo están tomando medidas para reducir la brecha.
Podría decirse que el líder mundial en innovación regulatoria es la Autoridad de Conducta Financiera (FCA) del Reino Unido. En 2015, el FCA estableció la iniciativa Project Innovate, que incluyó la creación de un «sandbox regulatorio» para que las empresas del sector privado prueben nuevos productos por su impacto regulatorio. Un año más tarde, la FCA lanzó una unidad de regtech que desarrolló lo que la agencia llamó «techsprints», una competencia abierta que se asemeja a un hackathon tecnológico en el que expertos en regulación, industria y temas trabajan codo a codo con ingenieros y diseñadores de software para desarrollar y presentar prototipos tecnológicos para resolver un problema regulatorio en particular. Desde entonces, el programa de innovación se ha expandido a una división importante dentro de la FCA. [6]
La FCA ha sido capaz de traducir este enfoque relativamente temprano en la innovación digital en la resolución de problemas del mundo real. En 2020, un alto funcionario de la agencia dio un discurso sobre cómo el FCA utiliza el aprendizaje automático y el procesamiento del lenguaje natural para monitorear los comportamientos de la empresa y «detectar empresas atípicas» como parte de un enfoque «holístico» para el análisis de datos. Se han logrado avances similares en otros países, incluyendo Singapur y Australia.
Los reguladores estadounidenses en su mayor parte han progresado más lentamente incorporando tecnologías de IA en su monitoreo de las empresas financieras. Todos los organismos reguladores financieros federales tienen programas de innovación de alguna forma. La mayoría de ellos, sin embargo, se han centrado más en la innovación de la industria que en la suya propia. Las agencias bancarias de los Estados Unidos:Oficina de Protección Financiera del Consumidor, Corporación Federal de Seguros de Depósitos, Junta de la Reserva Federal y Contraloría de la Moneda—todos tienen iniciativas de innovación orientadas en gran medida hacia el exterior, destinadas a comprender las nuevas tecnologías bancarias y ofrecer un punto de contacto sobre cuestiones regulatorias novedosas. Todos ellos también expandieron sus actividades tecnológicas durante la pandemia de COVID-19, estimulados por los repentinos cambios digitales en curso en la industria y su propia necesidad de expandir el monitoreo fuera del sitio. Varias agencias también tienen proyectos de suptech en marcha. Estos, sin embargo, generalmente tienen un alcance limitado y no abordan la necesidad de que las agencias revisen su arquitectura de información fundamental de la era analógica.
Esto está empezando a cambiar. La Reserva Federal en 2021 creó el nuevo puesto de Directora de Innovación y contrató a Sunayna Tuteja del sector privado, encargándole que emprendiera una modernización radical de la infraestructura de datos de la Fed. La FDIC también ha examinado de cerca sus propias estructuras de datos, y la OCC ha trabajado en la consolidación de sus plataformas de examen. Estos son pasos productivos, pero aún están rezagados con respecto al pensamiento avanzado en curso en otras partes del mundo. Los reguladores estadounidenses aún tienen que reducir la brecha entre la innovación acelerada en el sector privado y sus propios sistemas de monitoreo.
Otras agencias reguladoras de Estados Unidos han adoptado las tecnologías de IA más rápidamente. En 2017, Scott Bauguess, ex economista jefe adjunto de la Comisión de Bolsa y Valores (SEC), describió su uso de la IA por parte de la agencia supervisar los mercados de valores. Poco después de la crisis financiera, dijo, la SEC comenzó «métodos analíticos de texto simples» para determinar si la agencia podría haber predicho los riesgos derivados de los swaps de incumplimiento crediticio antes de la crisis. El personal de la SEC también aplica algoritmos de aprendizaje automático para identificar valores atípicos de informes en las presentaciones regulatorias.
Del mismo modo, la Autoridad Reguladora de la Industria Financiera (FINRA), el organismo autorregulador que supervisa a los corredores de bolsa en los Estados Unidos, utiliza una IA robusta para detectar posibles conductas indebidas. [7] Mientras tanto, la Comisión de Comercio de Futuros de Productos Básicos (CFTC, por sus siglas en inglés) ha sido líder a través de su programa LabCFTC, que aborda soluciones fintech y regtech. El ex presidente de la CFTC, Christopher Giancarlo, ha dicho que la principal prioridad de cada organismo regulador debería ser «digitalizar el libro de reglas». [8] Por último, la Red de Aplicación de Delitos Financieros (FinCEN) del Departamento del Tesoro lanzó un programa de innovación en 2019 para explorar métodos regtech para mejorar la detección de lavado de dinero. [9] La agencia ahora está en el proceso de implementar amplios mandatos tecnológicos que recibió bajo la Ley contra el Lavado de Dinero de 2020, una gran oportunidad para implementar la IA para detectar mejor algunos de los delitos financieros discutidos anteriormente.
CASOS CLAVE DE USO DE LA REGULACIÓN FINANCIERA
Si las agencias gubernamentales suplantaran sus sistemas analógicos con un diseño nativo digital, optimizaría el análisis de datos que ahora están siendo subutilizados. Las agujas podrían encontrarse en el pajar, los estafadores y lavadores de dinero tendrían más dificultades para ocultar su actividad, y los reguladores cumplirían más plenamente su misión de mantener un sistema financiero más seguro y justo.
A continuación, se presentan casos de uso específicos para incorporar la IA en el proceso regulatorio:
Detección de AML y sanciones
Podría decirse que el caso de uso de regtech más avanzado a nivel mundial es la lucha contra el lavado de dinero (AML). El cumplimiento de AML le cuesta a la industria más de $ 50 mil millones por año en los Estados Unidos, ya que la mayoría de los bancos dependen de sistemas de monitoreo de transacciones basados en reglas. [10] Estos métodos les ayudan a determinar qué actividad reportar a FinCEN como sospechosa, pero actualmente producen un tasa de falsos positivos de más del 90%. Esto sugiere que los bancos, los reguladores y las autoridades policiales están gastando tiempo y dinero persiguiendo posibles pistas, pero no frenando realmente los delitos financieros ilícitos. Los datos de AML que las agencias de aplicación de la ley reciben actualmente contienen demasiada información sin importancia y no se almacenan en formatos para ayudar a identificar patrones de delincuencia. [11]
Los reguladores financieros de todo el mundo generalmente han sido más activos en la regulación del uso de la IA por parte de la industria que en adoptarla para su propio beneficio.
Además de los desafíos asociados con la localización de delitos financieros entre la red masivamente compleja de transacciones globales, los bancos también deben realizar verificaciones de verificación de identidad de nuevos clientes y enviar datos de «beneficiarios reales» a FinCEN para evitar que los lavadores se escondan detrás de compañías ficticias falsas. La guerra en Ucrania y el endurecimiento de las sanciones contra los oligarcas rusos han puesto de relieve la necesidad de mejores mecanismos de control para restringir la actividad financiera de las personas que aparecen en las listas de sanciones. Mientras que una industria en crecimiento de empresas de regtech está tratando de ayudar a las instituciones financieras a cumplir de manera más eficiente con las reglas de Conozca a su cliente (KYC), FinCEN se encuentra en medio de la implementación de reformas legislativas que requieren que las corporaciones envíen datos a una nueva base de datos de beneficiarios reales.
En 2018 y 2019, la FCA celebró dos sprints tecnológicos internacionales destinados a abordar los desafíos de AML. El primer sprint trató sobre permitir que los reguladores y las fuerzas del orden compartan información sobre amenazas de manera más segura y efectiva. El segundo se centró en las «tecnologías de mejora de la privacidad», o PET, de varios tipos. Por ejemplo, el cifrado homomórfico es una técnica que se muestra prometedora para permitir que los datos compartidos a través de procesos AML se cifren a lo largo del proceso analítico, de modo que la información subyacente se oculte a otras partes y se preserve la privacidad. Otra técnica de PET conocida como prueba de conocimiento cero permite a una parte hacer a otra esencialmente una pregunta de sí o no sin la necesidad de compartir los detalles subyacentes que estimularon la investigación. Por ejemplo, un banco podría preguntar a otro si una determinada persona es un cliente, o si esa persona participó en una determinada transacción. Técnicas como esta se pueden utilizar para permitir el análisis de aprendizaje automático de los patrones de lavado sin comprometer la privacidad o socavar potencialmente el secreto de una investigación en curso.
Prevención del fraude
La SBA hizo esfuerzos para evaluar las herramientas de IA para detectar el fraude en los préstamos PPP, buscando ciertos Prestamistas fintech impulsados por IA. Sin embargo, el programa de préstamos para pequeñas empresas todavía estaba plagado de fraude. (De hecho, parte de la atención con respecto a las preocupaciones de fraude se ha centrado en los préstamos procesados por las empresas de tecnología financiera. [12]) Varios estudios demostrar que el uso efectivo del aprendizaje automático en la toma de decisiones de crédito puede detectar más fácilmente cuándo, por ejemplo, las solicitudes de préstamo son presentadas por entidades falsas.
Una de las mayores amenazas de fraude que enfrentan las instituciones financieras es el uso de identidades sintéticas por parte de los malos actores. Estos se crean combinando información real del cliente con datos falsos en una serie de pasos que pueden engañar a los sistemas de detección normales, pero a menudo pueden ser atrapados por el análisis regtech utilizando más datos y aprendizaje automático.
Muchas soluciones regtech para combatir el lavado de dinero surgieron de la tecnología para identificar el fraude, que generalmente ha sido más avanzada. Esto puede deberse a que la industria tiene un enorme interés financiero en prevenir pérdidas por fraude. También puede reflejar el hecho de que, en el fraude, las empresas generalmente están lidiando con la certeza de un problema, mientras que en AML, generalmente nunca saben si los «Informes de actividad sospechosa» que presentan con FinCEN conducen a algo útil. Estos factores hacen que sea aún más importante equipar a los bancos y sus reguladores con herramientas que puedan detectar más fácilmente, y de manera menos costosa, los patrones de delincuencia.
Protección del consumidor e inclusión financiera
La ley de protección al consumidor de los Estados Unidos prohíbe las leyes y prácticas injustas y engañosas (UDAP), tanto en el sector financiero como en general, y agrega el criterio de actividad «abusiva» a los efectos de la aplicación por parte de la Oficina de Protección Financiera del Consumidor (UDAAP). Sin embargo, la aplicación de estándares subjetivos como la «injusticia» y el «engaño» es un desafío, a menudo obstaculizado por la dificultad de detectar y analizar patrones de comportamiento potencialmente ilegal. Al igual que con la discriminación, la aplicación de la UDAAP se basa en un juicio subjetivo considerable para distinguir las actividades que están en contra de la ley de los patrones más benignos. Esto también dificulta el cumplimiento. La regtech basada en IA puede aprovechar el poder de más datos y herramientas analíticas de IA para resolver estos desafíos, lo que permite a los reguladores detectar y probar violaciones más fácilmente. También podría permitirles emitir una guía más clara y concreta, incluidos estándares más sofisticados sobre modelos estadísticos, para ayudar a la industria a evitar la discriminación y ser responsable de los UDAAP.
Existe un creciente reconocimiento entre los defensores de que la plena inclusión financiera, especialmente para los mercados emergentes, requiere un uso muy ampliado de la tecnología digital. El acceso a los teléfonos celulares, en efecto, ha puesto una sucursal bancaria en manos de dos tercios de los adultos del mundo. Este progreso sin precedentes, a su vez, ha puesto de relieve las barreras para un mayor éxito, la mayoría de las cuales podrían resolverse o mejorarse con mejores datos e IA.
Uno es el problema de la «reducción del riesgo» de AML. Como se señaló anteriormente, los bancos deben seguir las reglas de Conozca a su cliente (KYC) antes de aceptar nuevos clientes, un proceso que incluye verificar la identidad de la persona. En muchos países en desarrollo, las personas pobres, y en particular las mujeres, carecen de documentos de identidad formales como certificados de nacimiento y licencias de conducir, lo que las excluye efectivamente del acceso al sistema financiero formal. [13] En algunas partes del mundo, la presión regulatoria sobre los bancos para gestionar el riesgo asociado con la contratación de nuevos clientes ha dado lugar a que sectores enteros y, en algunos países, toda la población, se vean aislados de los servicios bancarios. [14] En realidad, estos mercados incluyen millones de consumidores que serían adecuados para abrir una cuenta y no presentan mucho riesgo en absoluto. Los bancos y los reguladores luchan con la forma de distinguir a las personas de alto riesgo de las que son de bajo riesgo. Se está trabajando mucho en varios países para resolver este problema más plenamente con la IA, mediante el uso de mecanismos de «identidad digital» que pueden autenticar la identidad de una persona a través de sus «huellas digitales».
Un desafío relacionado es que la ampliación de la inclusión financiera ha producido una mayor necesidad de una mejor protección del consumidor. Esto es especialmente importante para las personas que son introducidas en el sistema financiero por estrategias de «inclusión» y que pueden carecer de antecedentes financieros y conocimientos previos, lo que los hace vulnerables a prácticas depredadoras, estafas cibernéticas y otros riesgos. Los reguladores están utilizando chatbots de IA equipados con PNL para incorporar y analizar las quejas de los consumidores a escala y para rastrear la web en busca de signos de actividad fraudulenta.
Un ejemplo es el Acelerador RegTech for Regulators (R2A) lanzado en 2016 con el respaldo de la Fundación Bill y Melinda Gates, la Red Omidyar y USAID. [15] Se centra en el diseño de infraestructura regulatoria en dos países, Filipinas y México. Haciendo hincapié en la necesidad de que los consumidores accedan a los servicios a través de su teléfono celular, el proyecto introdujo procedimientos de informes AML y chatbots a través de los cuales los consumidores podrían informar quejas sobre productos financieros digitales directamente a los reguladores.
Es importante destacar que la innovación regtech en el mundo en desarrollo a menudo supera a la de las principales economías avanzadas. Una razón es que muchos países emergentes nunca construyeron la compleja infraestructura regulatoria que es común hoy en día en regiones como Estados Unidos, Canadá y Europa. Esto crea una oportunidad para comenzar con una pizarra limpia, utilizando la mejor tecnología de hoy en día en lugar de superponer nuevos requisitos sobre los sistemas de ayer.
Discriminación crediticia y préstamos predatorios
Quizás la mayor promesa de inclusión financiera de ai radica en la aparición de técnicas de suscripción de crédito centradas en los datos que evalúan las solicitudes de préstamos. La suscripción de crédito tradicional se ha basado en gran medida en un conjunto limitado de datos, especialmente los ingresos y el historial crediticio del individuo, según lo informado a las principales agencias de informes de crédito, porque esta información está fácilmente disponible para los prestamistas. Los puntajes de crédito son precisos para predecir el riesgo de incumplimiento entre las personas con buenos puntajes FICO (y bajos riesgos de incumplimiento). Sin embargo, esas técnicas de suscripción tradicionales se inclinan hacia la exclusión de algunas personas que podrían pagar un préstamo, pero tienen un archivo de crédito delgado (y por lo tanto un puntaje de crédito más bajo o nulo) o una situación financiera complicada que es más difícil de suscribir.
La suscripción de IA está comenzando a ser utilizada por los prestamistas, especialmente las fintech. La IA también está siendo utilizada cada vez más por las empresas financieras como una herramienta de regtech para verificar que el proceso principal de suscripción cumpla con los requisitos de préstamos justos. Un tercer proceso, mucho menos desarrollado, es la posibilidad de que los reguladores utilicen las mismas tecnologías para verificar la discriminación por parte de los prestamistas, incluido el sesgo estructural y la exclusión involuntaria de personas que realmente podrían pagar un préstamo. Los sesgos estructurales a menudo conducen a resultados de «impacto dispar». En estos casos, los reguladores afirman que una política de préstamos fue discriminatoria por motivos de raza, género u otros factores prohibidos, no por intención, sino porque una clase específica de consumidores sufrió resultados negativos. Debido a que el impacto dispar es un estándar legal[16] y las violaciones de estas leyes crean responsabilidad para los prestamistas, estos reclamos también pueden ser hechos por demandantes que representan a personas que argumentan que han sido perjudicados.
Investigación realizada por FinRegLab y otros están explorando el potencial de la suscripción basada en IA para hacer que las decisiones de crédito sean más inclusivas con poca o ninguna pérdida de calidad crediticia, y posiblemente incluso con ganancias en el rendimiento del préstamo. Al mismo tiempo, existe un claro riesgo de que las nuevas tecnologías puedan exacerbar los sesgos y las prácticas desleales si no se diseñan adecuadamente, lo que se analizará a continuación.
Cambio climático
En marzo de 2022, la Comisión de Bolsa y Valores propuso reglas para exigir a las empresas públicas que divulguen los riesgos relacionados con el cambio climático. [17] La eficacia de dicho mandato se verá inevitablemente limitada por el hecho de que los impactos climáticos son notoriamente difíciles de rastrear y medir. La única forma factible de resolver esto será recopilando más información y analizándola con técnicas de IA que puedan combinar vastos conjuntos de datos sobre emisiones y métricas de carbono, interrelaciones entre entidades comerciales y mucho más.
DESAFÍOS
Los beneficios potenciales de la IA son enormes, pero también lo son los riesgos. Si los reguladores diseñan mal sus propias herramientas de IA, y / o si permiten que la industria lo haga, estas tecnologías empeorarán el mundo en lugar de mejorarlo. Algunos de los desafíos clave son:
Explicabilidad: Los reguladores existen para cumplir con los mandatos de que supervisan el riesgo y el cumplimiento en el sector financiero. No pueden, no quieren y no deben entregar su papel a las máquinas sin tener la certeza de que las herramientas tecnológicas lo están haciendo bien. Necesitarán métodos para hacer que las decisiones de las IA sean comprensibles para los humanos o para tener plena confianza en el diseño de sistemas basados en tecnología. Estos sistemas deberán ser totalmente auditables.
Predisposición: Hay muy buenas razones para temer que las máquinas aumenten en lugar de disminuir el sesgo. La tecnología es amoral. La IA «aprende» sin las limitaciones de consideraciones éticas o legales, a menos que tales restricciones estén programadas en ella con gran sofisticación. En 2016, Microsoft introdujo un chatbot impulsado por IA llamado Tay en las redes sociales. La compañía retiró la iniciativa en menos de 24 horas porque al interactuar con los usuarios de Twitter se les había hecho. convirtió al bot en un «imbécil racista».» La gente a veces señala la analogía de un vehículo autónomo. Si su IA está diseñada para minimizar el tiempo transcurrido para viajar del punto A al punto B, el automóvil o camión irá a su destino lo más rápido posible. Sin embargo, también podría pasar semáforos, viajar en sentido contrario en calles de un solo sentido y golpear vehículos o atropellar a peatones sin reparos. Por lo tanto, debe programarse para lograr su objetivo dentro de las reglas de la carretera.
En el crédito, existe una alta probabilidad de que las IA mal diseñadas, con su poder de búsqueda y aprendizaje masivo, puedan aprovechar los proxies de factores como la raza y el género, incluso cuando esos criterios están explícitamente prohibidos de considerar. También existe una gran preocupación de que las IA se enseñen a sí mismas a penalizar a los solicitantes por factores que los responsables de la formulación de políticas no quieren que se consideren. Alguno punto de ejemplo a las IA que calculan la «resiliencia financiera» de un solicitante de préstamo utilizando factores que existen porque el solicitante estuvo sujeto a sesgos en otros aspectos de su vida. Tal tratamiento puede agravar en lugar de reducir el sesgo sobre la base de la raza, el género y otros factores protegidos. Los responsables de la formulación de políticas tendrán que decidir qué tipos de datos o análisis están fuera de los límites.
Una solución al problema del sesgo puede ser el uso de «IA adversarias». Con este concepto, la empresa o el regulador utilizarían una IA optimizada para un objetivo o función subyacente, como combatir el riesgo de crédito, el fraude o el lavado de dinero, y utilizarían otra IA separada optimizada para detectar sesgos en las decisiones en la primera. Los humanos podrían resolver los conflictos y podrían, con el tiempo, obtener el conocimiento y la confianza para desarrollar una IA de desempate.
Calidad de los datos: Como se señaló anteriormente, la IA y la gestión de datos están inextricablemente entrelazadas, por lo que el uso aceptable de la IA no surgirá a menos que los reguladores y otros resuelvan los muchos desafíos relacionados con el uso de datos. Al igual que con cualquier tipo de toma de decisiones, las elecciones basadas en IA son tan buenas como la información en la que se basan.
Integrar la IA en la regulación es un gran desafío que conlleva riesgos sustanciales, pero el costo de seguir con sistemas en gran parte analógicos es mayor.
En consecuencia, los reguladores enfrentan enormes desafíos con respecto a cómo recibir y limpiar los datos. La IA puede tratar más fácilmente con «datos estructurados», que llegan en formatos y campos organizados que el algoritmo reconoce y utiliza fácilmente. Con las herramientas de PNL, la IA también puede dar sentido a los «datos no estructurados». Sin embargo, estar seguro de que la IA está utilizando datos precisos y comprenderlos requiere una gran cantidad de trabajo. Los usos de la IA en las finanzas requerirán métodos férreos para garantizar que los datos se recopilen y «limpien» adecuadamente antes de que se sometan a un análisis algorítmico. La vieja máxima estadística «basura adentro, basura afuera» se vuelve aún más urgente cuando el análisis estadístico será realizado por máquinas que utilizan métodos que sus cuidadores humanos no pueden comprender completamente.
Es fundamental que los responsables de la formulación de políticas se centren en lo que está en juego. La IA que podría ser buena para, por ejemplo, recomendar una película para ver en Netflix no será suficiente para decidir si aprobar a alguien para una hipoteca o un préstamo para pequeñas empresas o permitirle abrir una cuenta bancaria.
Protección de datos y privacidad: El uso generalizado de la IA también requerirá un profundo trabajo de políticas sobre la ética y los aspectos prácticos del uso de datos. ¿Qué tipo de información debe usarse y qué debe estar fuera de los límites? ¿Cómo se protegerá de los riesgos de seguridad y el uso indebido del gobierno? ¿Deberían las personas tener el derecho de eliminar por la fuerza los datos en línea del pasado, y las técnicas de cifrado de las empresas deberían ser impenetrables incluso por el gobierno?
Las tecnologías que mejoran la privacidad pueden mitigar estos riesgos, pero los peligros requerirán una vigilancia permanente. El desafío aumentará aún más con el enfoque de la computación cuántica que tiene el poder de romper las técnicas de cifrado utilizadas para mantener los datos seguros.
Modelo de Gestión de Riesgos (MRM): Los modelos matemáticos ya son ampliamente utilizados en los servicios financieros y la regulación financiera. Plantean desafíos que solo crecerán a medida que la IA se emplee más ampliamente. Esto es particularmente cierto ya que la IA se pone en manos de personas que no entienden cómo toma decisiones. Tanto los reguladores como la industria necesitarán protocolos de gobernanza claros para garantizar que estas herramientas de IA se vuelvan a probar con frecuencia, se basen en datos suficientemente robustos y precisos, y se mantengan actualizadas tanto en sus datos como en sus fundamentos técnicos.
HOJA DE RUTA DE IA PARA LOS REGULADORES
Rediseñar la regulación financiera para ponerse al día con la aceleración de la IA y otras innovaciones de la industria es algo análogo al cambio de cámaras de analógico a digital en el cambio de milenio. Una cámara analógica produce una imagen en una forma que es engorrosa, lo que requiere una manipulación experta (y costosa) para editar fotos. Mejorar el proceso de tomar fotografías con película de 35 milímetros golpea un techo en un punto determinado. En comparación, la cámara digital o de teléfono inteligente era un paradigma completamente nuevo, convirtiendo imágenes en información digital que podía copiarse, imprimirse, someterse a inteligencia artificial para archivar y otros métodos, e incorporarse a otros medios. La cámara digital no fue una evolución de la versión analógica que la precedió. Era una tecnología completamente diferente.
Del mismo modo, las tecnologías regulatorias actuales se construyen sobre un sistema subyacente de información y procesos que fueron diseñados originalmente en papel. Como resultado, se construyen en torno a los supuestos restrictivos de la era analógica, a saber, que la información es escasa y costosa de obtener, y también lo es la potencia de cálculo.
Para llevar a cabo un cambio más dramático hacia un diseño nativo digital, los reguladores deberían crear nuevas «taxonomías» de sus requisitos (que algunas agencias ya están desarrollando) que puedan asignarse a máquinas impulsadas por IA. También deben desarrollar programas educativos integrales para capacitar a su personal en conocimientos y habilidades tecnológicas, incluida la capacitación básica en temas básicos, de los cuales la IA es una parte única e integral. Otros temas clave de «big data» incluyen el Internet de las cosas, la computación en la nube, el código fuente abierto, las cadenas de bloques y la tecnología de contabilidad distribuida, la criptografía, la computación cuántica, las interfaces de programas de aplicaciones (API), la automatización de procesos robóticos (RPI), las tecnologías de mejora de la privacidad (PET), el software como servicio (Saas), el flujo de trabajo ágil y el diseño centrado en el ser humano.
Estos son grandes desafíos que traen riesgos sustanciales, pero el costo de seguir con sistemas en gran parte analógicos es mayor. El personal puede temer que tal revisión pueda resultar en que las máquinas tomen sus trabajos, o que las máquinas cometan errores catastróficos, lo que resultará en percances financieros. En el primer temor, la robótica y la IA pueden, de hecho, capacitar a los seres humanos para que hagan mejor su trabajo, al disminuir grandes cantidades de tareas laborales rutinarias y liberar a las personas para que usen sus habilidades humanas únicas en objetivos de alto valor. Sobre el segundo temor, las agencias deben construir culturas basadas en el entendimiento de que los humanos no deben ceder la toma de decisiones significativa a las máquinas. Más bien, los expertos deben usar la tecnología para ayudar a priorizar sus propios esfuerzos y mejorar su trabajo.
Los datos son el nuevo petróleo no solo en su valor sino en su impacto: al igual que el petróleo, la digitalización de los datos puede resolver algunos problemas y causar otros. La clave para lograr resultados óptimos es utilizar tanto los datos como la IA de manera reflexiva, diseñando cuidadosamente nuevos sistemas para evitar daños, al tiempo que aprovecha la capacidad de la IA para analizar volúmenes de información que abrumarían los métodos tradicionales de análisis. Un sistema regulatorio digitalmente robusto con IA en su núcleo puede equipar a los reguladores para resolver problemas del mundo real, al tiempo que muestra cómo la tecnología se puede utilizar para el bien en el sistema financiero y más allá.
El autor es miembro de la junta directiva de FinRegLab, una organización sin fines de lucro cuya investigación incluye un enfoque en el uso de la IA en asuntos regulatorios financieros. Ella no recibió apoyo financiero de ninguna empresa o persona para este artículo o de ninguna empresa o persona con un interés financiero o político en este artículo. Aparte de lo anterior, el autor no es actualmente un funcionario, director o miembro de la junta de ninguna organización con un interés financiero o político en este artículo.
NOTAS
Anyoha, Rockwell. «La historia de la inteligencia artificial», Universidad de Harvard, 8 de agosto de 2017. https://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/.
McKendrick, Joe. «La adopción de ia se disparó en los últimos 18 meses». Harvard Business Review, 27 de septiembre de 2021. https://hbr.org/2021/09/ai-adoption-skyrocketed-over-the-last-18-months; McKendrick, Joe. «La paradoja de los datos: la inteligencia artificial necesita datos; Los datos necesitan IA». Forbes, 27 de septiembre de 2021. https://www.forbes.com/sites/joemckendrick/2021/06/27/the-data-paradox-artificial-intelligence-needs-data-data-needs-ai/?sh=6cd30dbe71a5.
Reserva Federal. «Resumen de la Ley de Vivienda Justa». Último acceso: 20 de mayo de 2022. https://www.federalreserve.gov/boarddocs/supmanual/cch/fair_lend_fhact.pdf.
Una voz. «Cronograma de Vivienda Justa». Último acceso: 20 de mayo de 2022. http://www.avoiceonline.org/fair-housing/timeline.html.
Klein, Aarón. «Reducir el sesgo en los servicios financieros basados en IA». Brookings Institution, 10 de julio de 2020. https://www.brookings.edu/research/reducing-bias-in-ai-based-financial-services/.
Autoridad de Conducta Financiera. «FCA Innovation Hub». Último acceso: 20 de mayo de 2022. https://www.fca.org.uk/firms/innovation.
Finra. «Cómo la nube ha revolucionado la tecnología FINRA». 30 de julio de 2018. https://www.finra.org/media-center/finra-unscripted/how-cloud-has-revolutionized-finra-technology.
J. Christopher Giancarlo. «Quantitative Regulation: Effective Market Regulation in a Digital Era» (Regulación cuantitativa: regulación efectiva del mercado en una era digital). Comisión de Comercio de Futuros de Productos Básicos. https://www.cftc.gov/PressRoom/SpeechesTestimony/opagiancarlo59.
Red de Aplicación de Delitos Financieros. «Programa de Horas de Innovación: Temas Emergentes y Papel Futuro en la Implementación de la Ley AML». Mayo 2019-Febrero 2021. https://www.fincen.gov/sites/default/files/2021-03/FinCEN%20IH%20Prgm%20Public%20Report%20508C.pdf.
Soluciones de riesgo de LexisNexis. «Crear una estrategia de cumplimiento de delitos financieros impulsada digitalmente» 2021. https://risk.lexisnexis.com/insights-resources/research/true-cost-of-financial-crime-compliance-study-for-the-united-states-and-canada.
Nicodemo, Aarón. «Análisis: Mejorar la efectividad de los SAR requiere más que un acto del Congreso». Semana de cumplimiento, 19 de enero de 2021. https://www.complianceweek.com/aml/analysis-improving-sars-effectiveness-takes-more-than-act-of-congress/29948.article.
Chiglinsky, Katherine. «Se descubrió que las fintechs son mucho más propensas a aceptar préstamos PPP sospechosos». Bloomberg News, 17 de agosto de 2021. https://www.bloomberg.com/news/articles/2021-08-17/fintechs-found-to-be-much-more-likely-to-ok-suspicious-ppp-loans.
Banco Mundial. «La identificación digital inclusiva y confiable puede desbloquear oportunidades para los más vulnerables del mundo». 14 de agosto de 2019. https://www.worldbank.org/en/news/immersive-story/2019/08/14/inclusive-and-trusted-digital-id-can-unlock-opportunities-for-the-worlds-most-vulnerable.
Banco Mundial. «De-risking in the Financial Sector», 7 de octubre de 2016. https://www.worldbank.org/en/topic/financialsector/brief/de-risking-in-the-financial-sector.
Grupo Pasarela Audiovisual. Último acceso: 20 de mayo de 2022. https://www.r2accelerator.org/.
Corte Suprema de los Estados Unidos. Departamento de Vivienda y Asuntos Comunitarios de Texas et al. v. Inclusive Communities Project, Inc. 2014. https://www.supremecourt.gov/opinions/14pdf/13-1371_8m58.pdf.
- 17Comisión de Bolsa y Valores. «La SEC propone reglas para mejorar y estandarizar las divulgaciones relacionadas con el clima para los inversores». 2022. https://www.sec.gov/news/press-release/2022-46.
Publicado originalmente: https://www.xbrl.org/news/is-ai-a-must-to-deal-with-todays-data/