Si se utiliza adecuadamente, podría acelerar significativamente el crecimiento económico y ayudar a que se recupere el crecimiento de la productividad.
La economía mundial postpandemia se ve afectada por un crecimiento más lento, la inflación más persistente en décadas, avances limitados en materia de sostenibilidad y altos costos de endeudamiento que afectan la inversión, incluidas las enormes inversiones necesarias para la transición energética. Sin embargo, tal vez el mayor obstáculo sea el lento crecimiento de la productividad desde la crisis financiera mundial.
La IA es nuestra mejor oportunidad para relajar las restricciones de la oferta que han contribuido a la desaceleración del crecimiento, las nuevas presiones inflacionarias, el aumento de los costos del capital, las dificultades fiscales y la disminución del margen de maniobra fiscal, y los desafíos para alcanzar los objetivos de sostenibilidad. Y la razón es que la IA tiene el potencial no solo de revertir la tendencia a la baja de la productividad, sino también de producir con el tiempo un importante aumento sostenido de la productividad.
Por supuesto, llevará tiempo. La ley de Roy Amara se aplica aquí, como en episodios anteriores de transformación tecnológica: tendemos a sobreestimar los impactos de corto plazo y subestimar los de largo plazo. Mi mejor estimación (y es sólo una estimación, basada en los patrones actuales de inversión) es que podríamos empezar a ver impactos significativos en la productividad laboral hacia fines de esta década.
Todas estas cosas son resultado de la colisión de tres fuerzas poderosas.
El primero son los shocks, como la guerra, la pandemia, el cambio climático, las tensiones geopolíticas, el resurgimiento del nacionalismo y el creciente enfoque en la seguridad nacional en la conducción de la política económica internacional. Estas perturbaciones cada vez más graves y frecuentes están desplazando las redes de suministro globales hacia una mayor diversificación y resiliencia, pero se trata de una presión costosa y que contribuye a las presiones inflacionarias.
Por ejemplo, Apple está desviando más producción a la India, que hoy produce el 15 por ciento de los iPhones, mientras que sólo Corea del Sur y la provincia china de Taiwán fabrican (en lugar de diseñar) los semiconductores más avanzados, una situación insostenible desde una perspectiva de seguridad nacional.
La diversificación de las fuentes de abastecimiento se ve reforzada por iniciativas políticas encaminadas a traer importantes cadenas de suministro de vuelta a casa, o al menos a países amigos, al tiempo que niegan a los adversarios el acceso a bienes, tecnología y capital. Algunas de estas políticas proteccionistas tienen por objeto proteger a los trabajadores nacionales de la competencia extranjera.
El resultado es una rápida fragmentación postpandemia de las redes de suministro globales que eran más cohesivas en los años de posguerra. Las cadenas de suministro entonces seguían en gran medida criterios económicos: eficiencia y ventaja comparativa. Hoy, es imposible maximizar la resiliencia y minimizar los costos al mismo tiempo, y ya no estamos minimizando los costos. Entre muchos factores, este cambio estructural ha contribuido a las presiones inflacionarias.
Etiqueta: ChatGPT
DEBEMOS CAMBIAR LA NATURALEZA DEL CRECIMIENTO
La búsqueda del crecimiento económico es una de nuestras ideas más preciadas, pero también una de las más peligrosas.
Una de las pocas cosas en las que los políticos están de acuerdo es en que necesitamos más crecimiento económico. Casi todos los países entraron en el siglo XXI con dificultades: Japón y Alemania a mediados de los años 1990, Estados Unidos y el Reino Unido a mediados de los años 2000, China a partir de mediados de los años 2010. Después de dos décadas de crisis sucesivas, la mayoría de las economías son sombras inertes de lo que fueron y los líderes han puesto el crecimiento en el primer lugar de sus prioridades.
Hemos estado preparándonos para este momento. En las últimas décadas, la búsqueda del crecimiento se ha convertido incansablemente en una de las actividades que definen nuestra vida en común. Nuestro éxito colectivo está determinado por cuánto podemos producir en un período determinado. La suerte de nuestros líderes políticos depende abrumadoramente del aumento o la caída de una cifra: el producto interno bruto (PIB).
Sin embargo, pocas veces nos detenemos a preguntar cómo se produjo este ascenso triunfal y, lo que es más importante, si es algo bueno. Porque hay un gran problema. Cuando observamos los desafíos más graves que enfrenta nuestro planeta hoy en día (desde el cambio climático y la destrucción del medio ambiente hasta la creación de tecnologías poderosas como la inteligencia artificial, cuyos efectos disruptivos aún no podemos controlar adecuadamente), las huellas del crecimiento están en todas partes. Sí, puede ser una de nuestras ideas más preciadas, pero también se está convirtiendo en una de las más peligrosas.
Inteligencia artificial generativa y ciberseguridad en la banca central
Los ataques cibernéticos son cada vez más frecuentes y evolucionan en complejidad y sofisticación. Al mismo tiempo, hay cambios significativos en la tecnología generados por los rápidos desarrollos en los sistemas de IA de generación.
Al realizar una encuesta personalizada a los líderes de ciberseguridad de los bancos centrales en el foro GCRG administrado por la CRCC en enero de 2024, investigamos el estado de la adopción de las herramientas de IA gen, identificamos los beneficios y riesgos percibidos asociados con su uso para la ciberseguridad y destacamos los desafíos percibidos y las perspectivas futuras desde el punto de vista de los bancos centrales. Si bien la regulación de la IA aún no está completamente desarrollada (Aldasoro et al (2024b)), existe un fuerte consenso sobre la adopción de reglas comunes para el uso de la IA para la ciberseguridad, y un reconocimiento de que se necesitan nuevas formas de cooperación a nivel de los bancos centrales. Dichos esfuerzos de colaboración deben abordar el establecimiento de nuevos estándares de protección de datos para garantizar la implementación responsable de la IA genérica y, lo que es más importante, abordar el problema de la «brecha de habilidades» entre el personal humano.
El BPI apoya los esfuerzos de seguridad cibernética de los bancos centrales y la cooperación global a través de la CRCC. Establecido en 2019, el CRCC desempeña un papel fundamental en la futura integración de la IA de generación para la seguridad cibernética. Un enfoque estructurado para el intercambio de conocimientos, la colaboración y la formación de capital humano es de primera importancia para hacer frente a los desafíos futuros. Uno de los proyectos clave es el foro GCRG, que incluye a los CISO de los bancos centrales miembros del BPI, que representan el liderazgo en seguridad cibernética en la comunidad mundial de bancos centrales. Este grupo es fundamental para abordar los desafíos que presenta la adopción de tecnologías de IA. Otras iniciativas de CRCC incluyen una plataforma global de colaboración de resiliencia cibernética con más de 300 profesionales activos de seguridad cibernética de la comunidad de bancos centrales. Esta plataforma y esta comunidad están preparadas para convertirse en un foro central de colaboración e intercambio de conocimientos sobre el tema de los desafíos y la adopción de la IA.
El CRCC también lidera el proyecto de Evaluaciones de Resiliencia Cibernética. Su objetivo es proporcionar a los bancos centrales un marco común para evaluar su postura de ciber resiliencia y mejorar sus prácticas de ciber resiliencia en la prestación de servicios empresariales críticos. La CRCC ha realizado evaluaciones de resiliencia cibernética en varios bancos centrales miembros del BPI y ha proporcionado un punto de referencia mundial para la comunidad de bancos centrales. Los bancos centrales ahora pueden comparar su postura de resiliencia cibernética con el índice de referencia y tomar decisiones de inversión informadas con respecto a la seguridad cibernética. Además, el CRCC también lleva a cabo varios eventos comunitarios, como seminarios anuales de seguridad cibernética y ejercicios de alcance cibernético. Estos eventos ayudan a mantener a la comunidad mundial de ciberseguridad de los bancos centrales comprometida con los problemas y amenazas emergentes de ciberseguridad (como la adopción de la IA), garantizando así la preparación operativa.
La cooperación y el intercambio de información son fundamentales para reducir colectivamente el riesgo cibernético y prevenir y contener los incidentes cibernéticos graves. La importancia de la cooperación aumentará aún más con la adopción y el desarrollo de sistemas de IA de alta generación.
Los datos estructurados podrían desbloquear el potencial de la IA en las finanzas
Un elemento en particular durante las vacaciones nos llamó la atención. La investigación de Patronus AI destacó los aparentes desafíos que enfrentan los grandes modelos de lenguaje (LLM), como el GPT-4 de OpenAI, al analizar los datos financieros contenidos en las presentaciones de la Comisión de Bolsa y Valores de EE. UU. (SEC).
El estudio, centrado en consultas financieras, encontró que incluso con acceso a archivos extensos, el modelo de mejor rendimiento, GPT-4-Turbo, logró solo una tasa de precisión del 79%. Pero espera… ¡esta es una de las informaciones mejor estructuradas del planeta! ¡Todo ha sido etiquetado con Inline XBRL! ¿Qué salió mal en su investigación? Oh. Lo adivinaste. Los investigadores pasaron por alto la información estructurada y utilizaron {Ed: ¡Whimpers!} versiones en PDF de estos archivos de estados financieros contenidos en sitios web corporativos.
Así que ayer hicimos nuestro pequeño experimento para comprender si el rendimiento de la IA mejoraría cuando se alimentaran con datos estructurados en Inline XBRL mantenidos en la SEC en lugar de archivos PDF. Cuando el equipo de XII profundizó en los datos, descubrimos que los sistemas de inteligencia artificial como el GPT-4 de OpenAI demuestran un rendimiento enormemente mejorado al responder consultas financieras cuando se alimentan con xBRL-JSON convertido a partir de los informes 10K Inline XBRL de la SEC. Aprovechar el análisis de datos estructurados con IA ofreció resultados de consultas en lenguaje natural mucho más precisos en todas las áreas que analizamos, incluidas:
• Estimación del porcentaje del costo de bienes vendidos (COGS)
• Determinación de los dividendos pagados a los accionistas comunes.
• Analizando la concentración de clientes
• Evaluación del crecimiento de las ganancias
• Evaluación de gastos de capital
Los investigadores sugieren (como era de esperar) que los modelos de lenguaje grandes puedan tener problemas con datos no estructurados, a menudo proporcionando respuestas incorrectas o incluso negándose a responder. Aprovechar los datos estructurados existentes, como en el caso de las presentaciones ante la SEC, es clave para un análisis más confiable mediante modelos de IA.
Las presentaciones presentadas a la SEC ya están meticulosamente estructuradas por empresas, con datos XBRL incorporados obligatoriamente por la dirección corporativa en sus divulgaciones. Como extraer información financiera relevante con IA es más eficaz cuando esa información está estructurada, sería prudente utilizar estos datos pre-estructurados.
{Ed: Respetuosamente, comenzar el análisis con versiones PDF de archivos de 10K es ridículo. Es como imprimir fotografías digitales de algunos fuegos artificiales y luego recortar letras individuales con unas tijeras sin punta y pegarlas en la página para deletrear las palabras «Feliz Año Nuevo» en el papel. ¡Es 2024! ¡Despierta y huele los datos estructurados!}
A pesar de las limitaciones actuales, los investigadores creen en el potencial a largo plazo de modelos de lenguaje como Chat-GPT para ayudar a los profesionales de la industria financiera. Sin embargo, subrayan la necesidad de una mejora continua en los modelos de IA.
Desde nuestra perspectiva, agregaríamos algo extremadamente obvio: las mejoras se acelerarán significativamente al aprovechar XBRL para mejorar la precisión y confiabilidad en el análisis financiero basado en IA. Apenas arañamos la superficie, más de una hora o dos… y estamos seguros de que nuestros lectores podrían hacerlo mejor. Comience por convertir Inline XBRL en xBRL-JSON (la mayoría de los procesadores XBRL ahora le permiten hacer esto extremadamente rápido), brinde a la IA algunas sugerencias sobre la estructura y continúe desde allí. Si tenemos tiempo, profundizaremos un poco más e informaremos la próxima semana.
Inteligencia artificial en la banca central
Mucho antes de que la inteligencia artificial (IA) se convirtiera en un punto focal de comentarios populares y de fascinación generalizada, los bancos centrales fueron los primeros en adoptar métodos de aprendizaje automático para obtener información valiosa para las estadísticas, la investigación y las políticas (Doerr et al (2021), Araujo et al (2022, 2023)). Las mayores capacidades y rendimiento de la nueva generación de técnicas de aprendizaje automático abren nuevas oportunidades. Sin embargo, para aprovecharlos es necesario que los bancos centrales desarrollen la infraestructura y los conocimientos necesarios. Los bancos centrales también deben abordar las preocupaciones sobre la calidad y la privacidad de los datos, así como los riesgos derivados de la dependencia de unos pocos proveedores.
En primer lugar, este boletín ofrece un breve resumen de los conceptos en el ámbito del aprendizaje automático y la IA. A continuación, se examinan los casos de uso de los bancos centrales en cuatro ámbitos: i) la recopilación de información y la compilación de estadísticas oficiales; ii) análisis macroeconómico y financiero en apoyo de la política monetaria; (iii) supervisión de los sistemas de pago; y iv) supervisión y estabilidad financiera. El Boletín también resume las lecciones aprendidas y las oportunidades y desafíos que surgen del uso del aprendizaje automático y la IA. Concluye analizando cómo la cooperación de los bancos centrales puede desempeñar un papel clave en el futuro.
En el ojo de la tormenta de la IA
La prevalencia de la inteligencia artificial (IA) aumentó en 2023, una tendencia que seguramente continuará este año, pero el crecimiento de la tecnología se ve afectado por los riesgos derivados de la mala gobernanza.
El uso de la IA ya está muy extendido, como lo ilustra una encuesta de la consultora de gestión McKinsey, que encontró que el 79% de los encuestados ha tenido alguna exposición a la IA generativa y el 22% ya la usa regularmente en su trabajo.
El sistema de IA más conocido, ChatGPT, superó los 100 millones de usuarios únicos dos meses después de su lanzamiento en noviembre de 2022, y se estima que fue utilizado por 1.700 millones de personas en un año. Según una investigación de la empresa de TI Infosys, la IA añadirá 14 billones de dólares en valor bruto a las empresas para 2035, mientras que Goldman Sachs estimó que la IA generativa podría aumentar el PIB mundial en un 7% para 2033.
Los gobiernos ya están desplegando sistemas de IA en ámbitos como la vivienda, el empleo, el transporte, la educación, la salud, la accesibilidad y la justicia, y es probable que el uso de la tecnología aumente aún más en 2024.
En los sectores público y privado, podría ser transformador, mejorando la eficiencia, reduciendo los costos para las corporaciones y acelerando la automatización. Esto también significa pérdidas de empleo: un análisis de marzo de 2023 de Goldman Sachs proyectó que la IA podría reemplazar el equivalente a 300 millones de puestos de trabajo a tiempo completo.
Sin embargo, la IA plantea graves riesgos, como facilitar las violaciones de los derechos humanos, exacerbar los desequilibrios de poder de la sociedad, perpetuar la desigualdad racial y perturbar los procesos democráticos.
Estos riesgos son en gran medida evitables y pueden deberse a la mala gobernanza de la tecnología.
La investigación del FRC explora el aumento de la IA en el trabajo actuarial del Reino Unido
Continuando con el tema, el Consejo de Información Financiera (FRC) publicó recientemente un informe de investigación que profundiza en la mayor adopción de la Inteligencia Artificial (IA) y el Aprendizaje Automático (ML) en el panorama actuarial del Reino Unido.
Amplias entrevistas con profesionales de la industria revelaron que la IA y el ML se están incorporando al conjunto de herramientas actuariales, particularmente cuando se trata de evaluar los riesgos de siniestros, pronosticar los comportamientos de los grupos de asegurados y mejorar las interacciones con los clientes.
El informe también anticipa un aumento significativo en la adopción de IA y ML en este dominio, impulsado principalmente por el potencial transformador de estas tecnologías y acelerado por la aparición de modelos de lenguaje avanzados de gran tamaño como ChatGPT.
Sin embargo, una preocupación predominante que se refleja en los hallazgos de la investigación es la necesidad de «explicabilidad» con respecto a los modelos de IA y ML. Su naturaleza opaca, con modelos a menudo denominados «cajas negras», plantea un desafío considerable en el sector.
De particular interés es la identificación de riesgos que podrían afectar la calidad del trabajo actuarial. Estos incluyen preocupaciones sobre la calidad de los datos de origen que surgen de la capacidad de AI/ML para utilizar fuentes de datos extensas, a menudo no estructuradas, con supervisión humana limitada y una dependencia excesiva de los resultados sin una comprensión integral de sus limitaciones.
Además, el informe reconoce los riesgos relacionados con un etiquetado deficiente de los datos, con potencial de imprecisiones. Los entrevistados también expresaron su preocupación por posibles sesgos o imprecisiones sistemáticas en los datos utilizados para entrenar modelos de IA/ML, lo que da como resultado patrones de juicio defectuosos y una baja adaptabilidad de los modelos en diversos contextos.
¿La comida para llevar? Si bien la IA y el aprendizaje automático son muy prometedores en este campo, es clave continuar entrenando estas herramientas emergentes con datos de alta calidad, con las habilidades adecuadas y las pruebas necesarias para respaldar las conclusiones.
Mark Babington, director ejecutivo de Estándares Regulatorios del FRC, subraya la necesidad de abordar estas preocupaciones para garantizar la calidad y confiabilidad del trabajo actuarial a medida que la IA y el ML continúan dando forma a la industria. «El FRC espera que esta investigación estimule una mayor reflexión en la industria sobre cómo gestionar estos riesgos», afirma.
¿Frenos para un Cohete?
Con los nuevos sistemas y aplicaciones de IA generativa que se lanzan, anuncian o demuestran a diario, no sorprende que esta nueva generación de herramientas también esté llamando la atención de los reguladores y legisladores de todo el mundo.
Chat GPT y sus relaciones (competidoras) están brindando una visión cada vez más clara de lo que se avecina. La combinación de algoritmos de aprendizaje automático, un poder de cómputo previamente inimaginable y una «base de datos» de aprendizaje que comprende todo Internet significa que todo tipo de esfuerzos que antes hubieran sido imposibles, están al alcance. Las empresas, las nuevas empresas, los gobiernos y las universidades de todo el mundo se apresuran a explorar lo que es posible hoy y lo que podría ser posible en el futuro.
Si bien las herramientas de hoy pueden sorprendernos con sus capacidades, también pueden impactar con su capacidad para disimular o, técnicamente, para “alucinar”. Más claramente: ¡mienten, y mienten con convicción!
Hace dos semanas, unas 25 000 personas {Ed, bueno, y probablemente algunos robots} , incluido Elon Musk, firmaron una carta abierta en la que pedían una moratoria en el trabajo de los laboratorios de IA para entrenar herramientas más potentes que GPT-4 durante al menos 6 meses.
Esta semana, una agencia clave de los EE. UU. está buscando comentarios sobre si las herramientas de IA deben auditarse o licenciarse y, de ser así, cómo. La UE y el Reino Unido se han centrado en la ética en la IA durante algún tiempo.
El laboratorio analiza la IA
El Laboratorio del Consejo de Informes Financieros del Reino Unido, diseñado como un espacio de taller para que inversores y empresas trabajen juntos en soluciones para las necesidades de informes, ha publicado su última visión sobre la inteligencia artificial emergente en los informes.
Con la IA avanzando en la agenda popular debido a su creciente prevalencia en soluciones tecnológicas emergentes como ChatGPT, el laboratorio realizó una mesa redonda para comprender la opinión de las partes interesadas sobre este tema. El evento atrajo mucho interés, y la IA se convirtió en el principal foco de discusión, mostrando la importancia de este tema para muchos. ¡Las conclusiones señalaron en gran medida la necesidad de una mayor comprensión, más experiencia y más datos!
Para fin de año, el FRC planea publicar estudios de casos que exploren la intersección de la IA con marcos de orientación e informes, ¡algo que estaremos vigilando! En el futuro, el laboratorio también tiene como objetivo analizar cómo las empresas incluyen la IA en los informes anuales y consideran las buenas prácticas emergentes; como hemos cubierto aquí antes , la combinación de datos estructurados, que es lo que funciona mejor con la IA, y las tecnologías emergentes podrían generar una poderosa herramienta para la creación de informes y análisis de divulgaciones estructuradas.