Etiqueta: ChatGPT

Inteligencia artificial en la banca central

Mucho antes de que la inteligencia artificial (IA) se convirtiera en un punto focal de comentarios populares y de fascinación generalizada, los bancos centrales fueron los primeros en adoptar métodos de aprendizaje automático para obtener información valiosa para las estadísticas, la investigación y las políticas (Doerr et al (2021), Araujo et al (2022, 2023)). Las mayores capacidades y rendimiento de la nueva generación de técnicas de aprendizaje automático abren nuevas oportunidades. Sin embargo, para aprovecharlos es necesario que los bancos centrales desarrollen la infraestructura y los conocimientos necesarios. Los bancos centrales también deben abordar las preocupaciones sobre la calidad y la privacidad de los datos, así como los riesgos derivados de la dependencia de unos pocos proveedores.
En primer lugar, este boletín ofrece un breve resumen de los conceptos en el ámbito del aprendizaje automático y la IA. A continuación, se examinan los casos de uso de los bancos centrales en cuatro ámbitos: i) la recopilación de información y la compilación de estadísticas oficiales; ii) análisis macroeconómico y financiero en apoyo de la política monetaria; (iii) supervisión de los sistemas de pago; y iv) supervisión y estabilidad financiera. El Boletín también resume las lecciones aprendidas y las oportunidades y desafíos que surgen del uso del aprendizaje automático y la IA. Concluye analizando cómo la cooperación de los bancos centrales puede desempeñar un papel clave en el futuro.

En el ojo de la tormenta de la IA

La prevalencia de la inteligencia artificial (IA) aumentó en 2023, una tendencia que seguramente continuará este año, pero el crecimiento de la tecnología se ve afectado por los riesgos derivados de la mala gobernanza.
El uso de la IA ya está muy extendido, como lo ilustra una encuesta de la consultora de gestión McKinsey, que encontró que el 79% de los encuestados ha tenido alguna exposición a la IA generativa y el 22% ya la usa regularmente en su trabajo.
El sistema de IA más conocido, ChatGPT, superó los 100 millones de usuarios únicos dos meses después de su lanzamiento en noviembre de 2022, y se estima que fue utilizado por 1.700 millones de personas en un año. Según una investigación de la empresa de TI Infosys, la IA añadirá 14 billones de dólares en valor bruto a las empresas para 2035, mientras que Goldman Sachs estimó que la IA generativa podría aumentar el PIB mundial en un 7% para 2033.
Los gobiernos ya están desplegando sistemas de IA en ámbitos como la vivienda, el empleo, el transporte, la educación, la salud, la accesibilidad y la justicia, y es probable que el uso de la tecnología aumente aún más en 2024.
En los sectores público y privado, podría ser transformador, mejorando la eficiencia, reduciendo los costos para las corporaciones y acelerando la automatización. Esto también significa pérdidas de empleo: un análisis de marzo de 2023 de Goldman Sachs proyectó que la IA podría reemplazar el equivalente a 300 millones de puestos de trabajo a tiempo completo.
Sin embargo, la IA plantea graves riesgos, como facilitar las violaciones de los derechos humanos, exacerbar los desequilibrios de poder de la sociedad, perpetuar la desigualdad racial y perturbar los procesos democráticos.
Estos riesgos son en gran medida evitables y pueden deberse a la mala gobernanza de la tecnología.

La investigación del FRC explora el aumento de la IA en el trabajo actuarial del Reino Unido

Continuando con el tema, el Consejo de Información Financiera (FRC) publicó recientemente un informe de investigación que profundiza en la mayor adopción de la Inteligencia Artificial (IA) y el Aprendizaje Automático (ML) en el panorama actuarial del Reino Unido.
Amplias entrevistas con profesionales de la industria revelaron que la IA y el ML se están incorporando al conjunto de herramientas actuariales, particularmente cuando se trata de evaluar los riesgos de siniestros, pronosticar los comportamientos de los grupos de asegurados y mejorar las interacciones con los clientes.
El informe también anticipa un aumento significativo en la adopción de IA y ML en este dominio, impulsado principalmente por el potencial transformador de estas tecnologías y acelerado por la aparición de modelos de lenguaje avanzados de gran tamaño como ChatGPT.
Sin embargo, una preocupación predominante que se refleja en los hallazgos de la investigación es la necesidad de «explicabilidad» con respecto a los modelos de IA y ML. Su naturaleza opaca, con modelos a menudo denominados «cajas negras», plantea un desafío considerable en el sector.
De particular interés es la identificación de riesgos que podrían afectar la calidad del trabajo actuarial. Estos incluyen preocupaciones sobre la calidad de los datos de origen que surgen de la capacidad de AI/ML para utilizar fuentes de datos extensas, a menudo no estructuradas, con supervisión humana limitada y una dependencia excesiva de los resultados sin una comprensión integral de sus limitaciones.
Además, el informe reconoce los riesgos relacionados con un etiquetado deficiente de los datos, con potencial de imprecisiones. Los entrevistados también expresaron su preocupación por posibles sesgos o imprecisiones sistemáticas en los datos utilizados para entrenar modelos de IA/ML, lo que da como resultado patrones de juicio defectuosos y una baja adaptabilidad de los modelos en diversos contextos.
¿La comida para llevar? Si bien la IA y el aprendizaje automático son muy prometedores en este campo, es clave continuar entrenando estas herramientas emergentes con datos de alta calidad, con las habilidades adecuadas y las pruebas necesarias para respaldar las conclusiones.
Mark Babington, director ejecutivo de Estándares Regulatorios del FRC, subraya la necesidad de abordar estas preocupaciones para garantizar la calidad y confiabilidad del trabajo actuarial a medida que la IA y el ML continúan dando forma a la industria. «El FRC espera que esta investigación estimule una mayor reflexión en la industria sobre cómo gestionar estos riesgos», afirma.

¿Frenos para un Cohete?

Con los nuevos sistemas y aplicaciones de IA generativa que se lanzan, anuncian o demuestran a diario, no sorprende que esta nueva generación de herramientas también esté llamando la atención de los reguladores y legisladores de todo el mundo.
Chat GPT y sus relaciones (competidoras) están brindando una visión cada vez más clara de lo que se avecina. La combinación de algoritmos de aprendizaje automático, un poder de cómputo previamente inimaginable y una «base de datos» de aprendizaje que comprende todo Internet significa que todo tipo de esfuerzos que antes hubieran sido imposibles, están al alcance. Las empresas, las nuevas empresas, los gobiernos y las universidades de todo el mundo se apresuran a explorar lo que es posible hoy y lo que podría ser posible en el futuro.
Si bien las herramientas de hoy pueden sorprendernos con sus capacidades, también pueden impactar con su capacidad para disimular o, técnicamente, para “alucinar”. Más claramente: ¡mienten, y mienten con convicción!
Hace dos semanas, unas 25 000 personas {Ed, bueno, y probablemente algunos robots} , incluido Elon Musk, firmaron una carta abierta en la que pedían una moratoria en el trabajo de los laboratorios de IA para entrenar herramientas más potentes que GPT-4 durante al menos 6 meses.
Esta semana, una agencia clave de los EE. UU. está buscando comentarios sobre si las herramientas de IA deben auditarse o licenciarse y, de ser así, cómo. La UE y el Reino Unido se han centrado en la ética en la IA durante algún tiempo.

El laboratorio analiza la IA

El Laboratorio del Consejo de Informes Financieros del Reino Unido, diseñado como un espacio de taller para que inversores y empresas trabajen juntos en soluciones para las necesidades de informes, ha publicado su última visión sobre la inteligencia artificial emergente en los informes.
Con la IA avanzando en la agenda popular debido a su creciente prevalencia en soluciones tecnológicas emergentes como ChatGPT, el laboratorio realizó una mesa redonda para comprender la opinión de las partes interesadas sobre este tema. El evento atrajo mucho interés, y la IA se convirtió en el principal foco de discusión, mostrando la importancia de este tema para muchos. ¡Las conclusiones señalaron en gran medida la necesidad de una mayor comprensión, más experiencia y más datos!
Para fin de año, el FRC planea publicar estudios de casos que exploren la intersección de la IA con marcos de orientación e informes, ¡algo que estaremos vigilando! En el futuro, el laboratorio también tiene como objetivo analizar cómo las empresas incluyen la IA en los informes anuales y consideran las buenas prácticas emergentes; como hemos cubierto aquí antes , la combinación de datos estructurados, que es lo que funciona mejor con la IA, y las tecnologías emergentes podrían generar una poderosa herramienta para la creación de informes y análisis de divulgaciones estructuradas.