Categoría: IA Inteligencia Artificial

En el ojo de la tormenta de la IA

La prevalencia de la inteligencia artificial (IA) aumentó en 2023, una tendencia que seguramente continuará este año, pero el crecimiento de la tecnología se ve afectado por los riesgos derivados de la mala gobernanza.
El uso de la IA ya está muy extendido, como lo ilustra una encuesta de la consultora de gestión McKinsey, que encontró que el 79% de los encuestados ha tenido alguna exposición a la IA generativa y el 22% ya la usa regularmente en su trabajo.
El sistema de IA más conocido, ChatGPT, superó los 100 millones de usuarios únicos dos meses después de su lanzamiento en noviembre de 2022, y se estima que fue utilizado por 1.700 millones de personas en un año. Según una investigación de la empresa de TI Infosys, la IA añadirá 14 billones de dólares en valor bruto a las empresas para 2035, mientras que Goldman Sachs estimó que la IA generativa podría aumentar el PIB mundial en un 7% para 2033.
Los gobiernos ya están desplegando sistemas de IA en ámbitos como la vivienda, el empleo, el transporte, la educación, la salud, la accesibilidad y la justicia, y es probable que el uso de la tecnología aumente aún más en 2024.
En los sectores público y privado, podría ser transformador, mejorando la eficiencia, reduciendo los costos para las corporaciones y acelerando la automatización. Esto también significa pérdidas de empleo: un análisis de marzo de 2023 de Goldman Sachs proyectó que la IA podría reemplazar el equivalente a 300 millones de puestos de trabajo a tiempo completo.
Sin embargo, la IA plantea graves riesgos, como facilitar las violaciones de los derechos humanos, exacerbar los desequilibrios de poder de la sociedad, perpetuar la desigualdad racial y perturbar los procesos democráticos.
Estos riesgos son en gran medida evitables y pueden deberse a la mala gobernanza de la tecnología.

¿Qué tan bien entienden los modelos de IA como GPT-4 los datos XBRL?

Hace un par de semanas comentamos desfavorablemente sobre el uso de versiones PDF de presentaciones de la SEC como entradas para modelos de lenguaje grande (LLM). Estamos mucho más interesados en cómo se pueden aprovechar estas herramientas para examinar datos estructurados.
Los ejemplos incluyen las presentaciones estructuradas con formato Inline XBRL proporcionadas a la SEC por todas las empresas que cotizan en bolsa en los Estados Unidos.
Así que pensamos que deberíamos hacer algunos experimentos por nuestra cuenta. En un nuevo blog, nuestro director de orientación, Revathy Ramanan, profundiza en lo que es posible con algunos enfoques muy simples para el análisis basado en LLM que se basa en estados financieros XBRL estructurados en lugar de archivos PDF no estructurados.
Este blog explica nuestro proceso y establece algunos hallazgos iniciales tentativos. Usamos Chat GPT 4 para este trabajo (incluso XBRL International puede permitírselo). Para ser honesto, estamos mucho más interesados en lo que se puede hacer con estas herramientas. Parece que se está abriendo un capítulo completamente nuevo, pero será necesaria una amplia gama de experimentación, utilizando LLM personalizados.
En pocas palabras, cuanto más hacemos en este espacio, más nos convencemos de que la divulgación de datos estructurados y confiables en XBRL (de los cuales la administración es responsable) produce una única fuente de verdad y una mina de oro analítica para la inteligencia artificial. Los datos están en todas partes. Los datos confiables no tienen precio. Por supuesto, el hecho de que la IA pueda consumirlo fácilmente es muy positivo, pero todavía estamos en el punto más temprano de este viaje.

El diseño responsable puede garantizar que la IA sirva a la sociedad

Teniendo en cuenta el potencial de daño generalizado, a medida que BigTech despliega sistemas de inteligencia artificial (IA), los responsables políticos se enfrentan a la desalentadora tarea de determinar cómo regular eficazmente la tecnología emergente. La IA puede ser una herramienta eficaz para el progreso cuando su diseño responsable está regulado en aras del interés público.
En conversaciones con inversores y empresarios, las preguntas sobre cómo la regulación de la IA podría obstaculizar la innovación y el crecimiento económico están a la vanguardia. Existe la narrativa de que la aplicación de la regulación sofocará la innovación; pero existe una relación matizada entre la regulación y la innovación de la IA. La regulación a veces puede sofocar la innovación, pero su necesidad permanece. El uso de enfoques como la estrategia de sandbox del Reino Unido puede lograr un equilibrio. Se podría argumentar que la regulación en realidad ayuda a la innovación y dirige el desarrollo de productos para servir a la sociedad. Sin embargo, el factor crucial es la aplicación oportuna de dicha regulación.
La integración de enfoques de diseño responsable y ética en el desarrollo de productos de IA evitará la suspensión de proyectos debido a la incertidumbre legislativa y retrasará la realización de valor de posibles oportunidades comerciales. La regulación impondrá estándares éticos a la IA, influyendo en las elecciones de los diseñadores y proporcionando diferentes direcciones para la innovación. En última instancia, una buena regulación permite un entorno de incentivos para la innovación y el diseño que conduce a la creación de productos de IA que sirven a la sociedad, en lugar de explotarla.

El valor de los datos estructurados y legibles por máquina en el entrenamiento de la IA generativa

A medida que los datos y análisis textuales se vuelven cada vez más importantes para la investigación contable (Bochkay et al. 2023), las innovaciones recientes en modelos de lenguaje grandes y el aprendizaje supervisado pueden proporcionar una identificación más sólida y validez interna para diversas tareas de clasificación de textos. Estos métodos de aprendizaje automático se han utilizado hasta ahora para reconocer el sentimiento en grandes volúmenes de divulgaciones financieras no etiquetadas (Frankel et al. 2022; Huang et al. 2023; Siano y Wysocki 2021). En este estudio, ajustamos FinBERT para reconocer temas contables dentro de las divulgaciones.
Una gran cantidad de literatura encuentra que los temas específicos de contabilidad están significativamente asociados con determinantes y / o resultados en las mismas áreas temáticas. Estos estudios utilizan datos clasificados por agregadores de datos, datos clasificados manualmente o un método de aprendizaje automático no supervisado (LDA) para clasificar los temas. Demostramos que nuestro modelo puede clasificar de manera más eficiente, completa y precisa los temas contables en grandes volúmenes de divulgaciones y, lo que es más importante, supera a la LDA comúnmente utilizada. Después de demostrar este desempeño, proporcionamos tres ejemplos de divulgaciones que se pueden clasificar en temas contables con nuestro modelo. Específicamente, encontramos que las notas etiquetadas a medida para los estados financieros, la sección MD&A del 10-K y la sección de factores de riesgo del 10-K contienen información significativa específica del tema que es predictiva de resultados contables específicos. Cada configuración es muy importante, ya que el 62 por ciento de las observaciones del año de la empresa utilizan al menos una etiqueta XBRL personalizada, y todas las empresas divulgan la sección MD&A y factor de riesgo.
Al igual que otros estudios que proponen un nuevo modelo, nuestro estudio está sujeto a varias limitaciones. Para ajustar un modelo de lenguaje grande para realizar una nueva tarea posterior, los investigadores necesitan algunos conocimientos de programación, así como recursos informáticos significativos. Sin embargo, una vez que el modelo se ajusta como el modelo de Huang et al. (2023) es para el sentimiento y nuestro modelo es para temas de contabilidad, estos recursos son menos limitantes. Además, inherente a un enfoque de aprendizaje automático supervisado es el uso de datos etiquetados para reconocer las mismas etiquetas en nuevos datos textuales. Por lo tanto, nuestro enfoque no identificará temas nuevos u ocultos a menos que esté capacitado para hacerlo. A pesar de estas limitaciones, creemos que nuestro modelo puede ayudar a los investigadores y profesionales interesados en identificar información relevante y consistente sobre temas contables a partir de grandes volúmenes de datos textuales.

¿Frenos para un Cohete?

Con los nuevos sistemas y aplicaciones de IA generativa que se lanzan, anuncian o demuestran a diario, no sorprende que esta nueva generación de herramientas también esté llamando la atención de los reguladores y legisladores de todo el mundo.
Chat GPT y sus relaciones (competidoras) están brindando una visión cada vez más clara de lo que se avecina. La combinación de algoritmos de aprendizaje automático, un poder de cómputo previamente inimaginable y una «base de datos» de aprendizaje que comprende todo Internet significa que todo tipo de esfuerzos que antes hubieran sido imposibles, están al alcance. Las empresas, las nuevas empresas, los gobiernos y las universidades de todo el mundo se apresuran a explorar lo que es posible hoy y lo que podría ser posible en el futuro.
Si bien las herramientas de hoy pueden sorprendernos con sus capacidades, también pueden impactar con su capacidad para disimular o, técnicamente, para “alucinar”. Más claramente: ¡mienten, y mienten con convicción!
Hace dos semanas, unas 25 000 personas {Ed, bueno, y probablemente algunos robots} , incluido Elon Musk, firmaron una carta abierta en la que pedían una moratoria en el trabajo de los laboratorios de IA para entrenar herramientas más potentes que GPT-4 durante al menos 6 meses.
Esta semana, una agencia clave de los EE. UU. está buscando comentarios sobre si las herramientas de IA deben auditarse o licenciarse y, de ser así, cómo. La UE y el Reino Unido se han centrado en la ética en la IA durante algún tiempo.

IA una necesidad para lidiar con los datos actuales, acaso

Disfrutamos de la reflexión ofrecida en un reciente artículo de opinión de Jo Ann Barefoot sobre el caso de colocar la inteligencia artificial (IA) en el corazón de una regulación financiera digitalmente robusta. Ella postula que «hasta hace poco, no había suficientes datos en forma digitalizada, formateados como código legible por computadora, para justificar el uso de la IA. Hoy en día, hay tantos datos que no solo podemos usar la IA, sino que, en muchos campos, como la regulación financiera, tenemos que usar la IA simplemente para mantenernos al día».
El artículo analiza los casos de uso en los que los reguladores podrían obtener más de los datos subutilizados, como la lucha contra el lavado de dinero, la prevención del fraude, la discriminación crediticia y los préstamos predatorios, y la comprensión de los riesgos relacionados con el clima. También examina algunos de los desafíos, incluidos el sesgo, la protección de datos y la calidad de los datos, señalando que los datos estructurados (como los creados al etiquetar documentos utilizando XBRL) son más fáciles de usar para la IA para obtener resultados significativos y de alta calidad.

La IA tan grande como Internet – El presidente Gensler plantea una regulación dinámica

Hay un gran motivo de reflexión en el título de algunos comentarios recientes del presidente de la Comisión de Bolsa y Valores de los Estados Unidos (SEC), Gary Gensler, sobre «Regulación dinámica para una sociedad dinámica». En declaraciones al Club de Hacienda de Washington DC, reflexionó sobre el principio de que «ninguna regulación puede ser estática en una sociedad dinámica» y ofreció dos principios rectores para dar forma a la agenda de la SEC: impulsar la eficiencia en los mercados de capitales y modernizar las reglas para la economía y las tecnologías actuales.

XBRL y AI

XBRL es ahora el estándar para informes financieros. Cuando los informes solían archivarse como documentos PDF u hojas de Excel, el estándar XBRL ha proporcionado a los reguladores datos legibles por máquina. El hecho de que sea legible por máquina ha mejorado significativamente la calidad de los datos, ya que las reglas comerciales se pueden aplicar cuando se envían los datos. Muchos reguladores quieren dar un paso más y aplicar inteligencia artificial a los datos que reciben.

Inteligencia artificial que impregna los mercados de capital globales

“Esos gigantes de la tecnología global tienen acceso a los hábitos y datos de miles de millones de personas en todo el mundo”, dice Kevin McPartland . “La mayoría de las empresas de servicios financieros, por otro lado, todavía están trabajando arduamente para normalizar los datos que tienen, están luchando por trabajar dentro de las reglas de privacidad que rodean a los datos de los clientes y, a menudo, trabajan con conjuntos de datos tan limitados que el resultado es aún más artístico que Ciencias.»