La investigación del FRC explora el aumento de la IA en el trabajo actuarial del Reino Unido


Publicado el 3 de noviembre de 2023 por Editor

Continuando con el tema, el Consejo de Información Financiera (FRC) publicó recientemente un informe de investigación que profundiza en la mayor adopción de la Inteligencia Artificial (IA) y el Aprendizaje Automático (ML) en el panorama actuarial del Reino Unido.

Amplias entrevistas con profesionales de la industria revelaron que la IA y el ML se están incorporando al conjunto de herramientas actuariales, particularmente cuando se trata de evaluar los riesgos de siniestros, pronosticar los comportamientos de los grupos de asegurados y mejorar las interacciones con los clientes.

El informe también anticipa un aumento significativo en la adopción de IA y ML en este dominio, impulsado principalmente por el potencial transformador de estas tecnologías y acelerado por la aparición de modelos de lenguaje avanzados de gran tamaño como ChatGPT.

Sin embargo, una preocupación predominante que se refleja en los hallazgos de la investigación es la necesidad de «explicabilidad» con respecto a los modelos de IA y ML. Su naturaleza opaca, con modelos a menudo denominados «cajas negras», plantea un desafío considerable en el sector.

De particular interés es la identificación de riesgos que podrían afectar la calidad del trabajo actuarial. Estos incluyen preocupaciones sobre la calidad de los datos de origen que surgen de la capacidad de AI/ML para utilizar fuentes de datos extensas, a menudo no estructuradas, con supervisión humana limitada y una dependencia excesiva de los resultados sin una comprensión integral de sus limitaciones.

Además, el informe reconoce los riesgos relacionados con un etiquetado deficiente de los datos, con potencial de imprecisiones. Los entrevistados también expresaron su preocupación por posibles sesgos o imprecisiones sistemáticas en los datos utilizados para entrenar modelos de IA/ML, lo que da como resultado patrones de juicio defectuosos y una baja adaptabilidad de los modelos en diversos contextos.

¿La comida para llevar? Si bien la IA y el aprendizaje automático son muy prometedores en este campo, es clave continuar entrenando estas herramientas emergentes con datos de alta calidad, con las habilidades adecuadas y las pruebas necesarias para respaldar las conclusiones.

Mark Babington, director ejecutivo de Estándares Regulatorios del FRC, subraya la necesidad de abordar estas preocupaciones para garantizar la calidad y confiabilidad del trabajo actuarial a medida que la IA y el ML continúan dando forma a la industria. «El FRC espera que esta investigación estimule una mayor reflexión en la industria sobre cómo gestionar estos riesgos», afirma.

Acceda al informe completo para obtener información detallada

AI FRC ML REINO UNIDO


El uso de la Inteligencia Artificial y el Aprendizaje Automático en el trabajo actuarial del Reino Unido

1. Resumen ejecutivo

Este informe presenta los resultados de una encuesta y una serie de entrevistas realizadas por el Departamento de Actuarios del Gobierno (GAD) en nombre del Consejo de Información Financiera (FRC) para explorar cómo se utilizan la Inteligencia Artificial y el Aprendizaje Automático (IA/ML) para el trabajo actuarial en el Reino Unido.

1.1 Método

La investigación consistió en una encuesta en línea que completaron 104 encuestados en diferentes campos y 20 entrevistas (37 entrevistados) en los primeros seis meses de 2023. Las entrevistas con más de una persona abarcaron una sola organización, excepto en un caso. Las encuestas y entrevistas estaban dirigidas a actuarios del Reino Unido que utilizan la IA/ML en su trabajo, aunque las contribuciones de actuarios no británicos o de personas que no utilizan la IA/ML también fueron bienvenidas y constituyeron una pequeña minoría de los encuestados y entrevistados. Más actuarios de Seguros Generales completaron la encuesta (c44%) y asistieron a las entrevistas (c38%) que actuarios de cualquier otro campo. La mayor tasa de respuesta a la encuesta de los actuarios de Seguros Generales y la evidencia de la etapa de entrevista sugieren que hay una concentración de trabajo de IA/ML en Seguros Generales.

1.2 Alcance del uso de la IA/ML

El principal uso de las técnicas de IA/ML en el trabajo actuarial del Reino Unido se relaciona con la fijación de precios de los seguros, particularmente en los seguros generales, y su uso es más limitado en otras áreas. Sin embargo, hay indicios de que se espera que el uso de la IA/ML aumente en el futuro.

La investigación sugirió que el uso de la IA/ML es actualmente limitado entre los actuarios de toda la profesión, pero reveló una concentración de la actividad de IA/ML entre los actuarios de seguros generales, especialmente a efectos de la fijación de precios de los seguros generales. Los usos de la IA/ML cubren una amplia gama de aplicaciones dentro de la fijación de precios de los seguros generales, incluida la determinación del riesgo de siniestros para los asegurados, la previsión de la elasticidad-precio de la demanda para los grupos de asegurados, así como la información del proceso de «front-end» para los clientes y los asegurados.

Una minoría de los actuarios encuestados trabajan fuera de los campos actuariales más establecidos de Pensiones, Seguros Generales, Seguros de Vida y Finanzas e Inversiones. Este grupo tendía a utilizar la IA/ML en mayor medida que otros encuestados, aplicando técnicas más avanzadas en casos de uso más diversos. Entre los ejemplos de uso de la IA/ML en los «Otros» campos del trabajo actuarial a los que se hizo referencia figuraban el análisis del impacto de las intervenciones de salud pública, la asistencia a las empresas farmacéuticas en la elaboración de perfiles de pacientes y la elaboración de proyecciones económicas a largo plazo.

Si bien, en el momento de realizar la investigación, el uso de técnicas de IA/ML en el trabajo actuarial era algo limitado, tanto la encuesta como las entrevistas encontraron que su uso estaba aumentando rápidamente. Los participantes de la investigación de organizaciones que ya utilizaban ampliamente la IA/ML tenían más probabilidades de informar de intenciones más sólidas de aumentar su uso en el futuro que las que la utilizaban menos.

Había una amplia gama de complejidad en las técnicas de IA/ML que se aplicaban. Entre los métodos más sencillos figuraban los análisis básicos de clasificación de árboles de decisión y los modelos lineales generalizados (GLM), que algunos participantes clasificaron como IA/ML; También se mencionaron técnicas más avanzadas, como el triángulo profundo y el aumento de gradiente extremo. En el Apéndice A figura un glosario de términos técnicos.

El momento de esta investigación significó que ChatGPT (un modelo de lenguaje grande, o ‘LLM’, desarrollado por OpenAI) pasó de no tener ninguna mención en las respuestas de la encuesta (enero a abril de 2023) a ser planteado por casi todos los entrevistados (marzo a junio de 2023) como un tema relevante para una amplia discusión. Algunas organizaciones de entrevistados estaban haciendo uso de LLM para ayudar a la eficiencia de algunos procesos. En el extremo más simple, los LLM se utilizaban para ayudar a programar, escanear el horizonte o resumir grandes volúmenes de texto. En el extremo más avanzado, los participantes estaban desarrollando LLM internos a medida capacitados en documentos internos para construir modelos financieros completos propios, basados puramente en indicaciones de lenguaje natural. Los entrevistados señalaron que la integración de los LLM en las empresas había permitido a algunas organizaciones obtener ganancias significativas en la productividad.

1.3 Gobernanza y aseguramiento de la calidad

Por lo general, los procesos de gobernanza y garantía de calidad se están adaptando de manera informal a los modelos que utilizan técnicas de IA/ML.

La mayoría de los participantes dijeron que sus organizaciones no han cambiado sus procesos formales de gobernanza para la IA/ML, porque estos procesos son efectivos, pero señalaron que a menudo había diferencias en la práctica de gobernanza para centrarse en garantizar que el análisis sea explicable por los revisores actuariales, los propietarios de modelos, los responsables de la toma de decisiones de alto nivel y los reguladores. Esto se conoce ampliamente como «explicabilidad». Los participantes señalaron que muchos de los procesos de gobernanza adicionales que se aplicaban cuando se utilizaban técnicas de IA/ML más complejas estaban orientados a mejorar la explicabilidad, además de garantizar la precisión de los resultados.

Sin embargo, hubo un pequeño número de participantes que describieron un proceso de gobernanza diferente que se utiliza para el trabajo de IA/ML. Esto incluía exigir niveles más altos de aprobación y documentación más exhaustiva, así como tener diferentes expectativas sobre la protección de datos y la seguridad informática. Los participantes también dieron ejemplos de cómo habían tenido en cuenta las reglamentaciones vigentes para adaptar sus procesos de gobernanza.

Los participantes indicaron que los profesionales actuariales con las habilidades y los conocimientos necesarios para revisar el trabajo de IA/ML son escasos, especialmente en el ámbito de las pensiones o el de las finanzas y la inversión. Algunas organizaciones superaron esto dando forma a los resultados de los modelos de IA/ML para alinearlos con métricas que eran más familiares para los profesionales con experiencia limitada en ciencia de datos y estaban desarrollando herramientas interactivas para ayudar a la comprensión.

Los participantes compartieron una serie de interpretaciones del concepto de reproducibilidad. Independientemente de cuál se aplique, la reproducibilidad no suele ser una prioridad para la gobernanza y el aseguramiento de la calidad.

La investigación sugiere que la explicabilidad es un factor clave en la elección de las técnicas de modelización y tiende a ser un reto mayor para los modelos de IA/ML que para las técnicas de modelización establecidas. El aumento del riesgo más mencionado para el trabajo actuarial mediante el uso de técnicas de IA/ML fue la falta de comprensión del modelo debido a que los modelos se tratan como «cajas negras».

Por lo general, los participantes pensaban que la explicabilidad podría ser más difícil para la mayoría de los análisis de IA/ML en comparación con las técnicas tradicionales. Los participantes mencionaron que las organizaciones dan prioridad a la explicabilidad ante las partes interesadas internas y externas a la hora de tomar decisiones sobre la modelización. Entre los ejemplos dados se incluyen organizaciones que optaron por formas muy simples de modelos de IA/ML o modelos de construcción de una manera que garantizara que la justificación subyacente de cada etapa del proceso de toma de decisiones del modelo fuera transparente y susceptible de interrogación estadística. Los participantes explicaron cómo los responsables de la toma de decisiones de alto nivel más comprometidos pueden superar los problemas de explicabilidad. Dieron ejemplos de cómo la implementación de técnicas que incluyen visualizaciones de datos más avanzadas o el análisis de explicaciones aditivas SHapley (SHAP), que ayuda a arrojar luz sobre cómo las diferentes variables de entrada contribuyen a la salida predictiva de un modelo, a menudo fueron útiles para permitir que los responsables de la toma de decisiones comprendan el funcionamiento interno de los modelos de IA/ML.

Los participantes destacaron que uno de los principales riesgos de un modelo de IA/ML es que sus cálculos no sean fácilmente visibles o comprensibles debido a su funcionamiento como una «caja negra». Hubo una variedad de puntos de vista sobre la facilidad de lograr la explicabilidad de los modelos que utilizan técnicas de IA/ML, dependiendo en gran medida del tipo de análisis de IA/ML empleado. Algunos consideraron que los modelos de árbol de decisión eran fáciles de explicar, y otros sugirieron que las redes neuronales podrían ser inherentemente inexplicables.

1.4 Riesgos derivados del uso de la IA/ML

Un riesgo clave destacado por quienes utilizaron técnicas de IA/ML fue el sesgo o la posible discriminación, ya sea como resultado de las técnicas de modelización utilizadas o del sesgo en los datos subyacentes.

A los participantes les preocupaba que el riesgo de discriminar inadvertidamente en función de las características protegidas fuera mayor cuando se utilizaban modelos de IA/ML que en el caso de las técnicas más tradicionales. Los participantes también sugirieron que el riesgo de discriminación de precios por motivos de género podría ser mayor cuando se utilizan modelos de IA/ML debido al nivel generalmente más bajo de explicabilidad dentro de un modelo de IA/ML y al nivel de información técnica proporcionada a los responsables de la toma de decisiones.

Se ofrecieron diversas opiniones sobre la forma de abordar esta cuestión. Una organización declaró que tenía un método matemáticamente hermético y legalmente defendible para demostrar que sus modelos no discriminaban por motivos de género.

Los participantes también señalaron el riesgo de sesgo involuntario y posible discriminación debido a la posibilidad de sesgo inherente en los conjuntos de datos que se hicieron más utilizables mediante técnicas de IA/ML. Por ejemplo, la sobrerrepresentación de ciertos grupos en los conjuntos de datos de entrada podría llevar a que los modelos de IA/ML en la gestión de la salud de la población recomienden intervenciones de salud pública que favorezcan a los grupos sobrerrepresentados.

Se dijo que otras áreas de mayor riesgo para el trabajo actuarial podrían surgir del uso de técnicas de IA/ML, incluidos datos de mala calidad o de fuentes inadecuadas, supervisión humana insuficiente, dependencia excesiva de los resultados y privacidad de los datos.

Los entrevistados señalaron que la capacidad de los modelos de IA/ML para utilizar fuentes de datos nuevas y más extensas, como el texto no estructurado, aumenta indirectamente la magnitud de los posibles problemas de privacidad de los datos. Un entrevistado que vive fuera del Reino Unido explicó que algunas empresas habían comenzado a utilizar «datos alternativos» para la fijación de precios de seguros, por ejemplo, utilizando los datos de uso de la aplicación del teléfono inteligente del asegurado o los registros de visitas a la tienda para obtener una evaluación mejor informada de su perfil de riesgo.

Se mencionaron los riesgos asociados con el etiquetado de datos, como la carga del proceso de etiquetado de datos y la posibilidad de que se produjeran imprecisiones. Los entrevistados también expresaron reservas sobre posibles sesgos o imprecisiones sistemáticas en los datos utilizados para entrenar modelos de IA/ML, lo que conduce a patrones de juicio defectuosos y una baja generalización de los modelos a diferentes contextos.

Los participantes mencionaron los riesgos derivados de la falta de supervisión humana en el despliegue de modelos de IA/ML, en particular la automatización completa de los LLM. Si bien los participantes consideraron que la participación humana es fundamental para mitigar los errores que pueden cometer los LLM, hubo preocupación por la efectividad de la participación humana, dado que los humanos también cometen errores. Los participantes explicaron que la IA/ML a veces se considera una solución «mágica» a los problemas analíticos y que existe el riesgo de que algunos actuarios sean demasiado optimistas sobre los tipos de problemas que puede resolver. Los participantes sugirieron que los actuarios pueden confiar excesivamente en estas técnicas sin comprender sus limitaciones ni llevar a cabo una validación adecuada. Esto fue una preocupación particular para los LLM, donde los casos de errores o inexactitudes, aunque raros, son muy difíciles de predecir.

Los participantes opinaron que las preocupaciones sobre la privacidad de los datos son igualmente pertinentes tanto para la IA/ML como para el análisis más tradicional, ya que la IA/ML se relaciona principalmente con la forma en que se procesan los datos, no con el tipo de datos que se procesan. Sin embargo, las técnicas de IA/ML amplían en gran medida el contenido y la diversidad de los conjuntos de datos que se pueden introducir en las etapas posteriores de modelado, lo que significa que indirectamente conducen a más problemas de privacidad de datos.

La falta de un lenguaje coherente en relación con el trabajo de IA/ML puede obstaculizar la comunicación y la comprensión continuas de los problemas de modelización, o la gestión de los riesgos asociados a ellos.

Dentro de este estudio se proporcionó una definición para los términos IA y ML. En el momento de redactar este informe, todavía no existe una definición comúnmente aceptada1 , lo que puede dificultar el entendimiento entre las personas que trabajan en este ámbito y el desarrollo de enfoques normativos o de gobernanza adecuados. Por ejemplo, hubo diferentes opiniones sobre si los modelos lineales generalizados (GLM), que se consideran una técnica actuarial «tradicional», se clasificarían como un modelo de ML.

Del mismo modo, los participantes tenían diferentes interpretaciones de términos como «explicabilidad» y «reproducibilidad». Dado que la explicabilidad, en particular, se consideraba una cuestión clave, los participantes hicieron hincapié en la importancia de que los actuarios que elaboraran modelos, así como los que utilizaran o se basaran en los resultados de dichos modelos, comprendieran sus características de manera común.

Las discrepancias en la comprensión de los términos clave relacionados con la IA/ML no solo introducen desafíos técnicos, sino también posibles consideraciones de gobernanza. Por ejemplo, algunos entrevistados señalaron que su organización tenía un proceso de gobernanza distinto para el análisis de IA/ML que no se aplicaba a las formas más tradicionales de análisis. Por lo tanto, la decisión de clasificar o no una técnica determinada como IA/ML podría tener implicaciones prácticas con respecto al nivel de gobernanza al que está sujeto el análisis asociado.

La reciente proliferación de los Grandes Modelos de Lenguaje (LLM) ha tenido un impacto rápido y potencialmente significativo en el trabajo actuarial. Esto pone de relieve el riesgo de adoptar nuevos avances técnicos cuando pueden no comprenderse completamente.

Los entrevistados señalaron que, si bien los LLM pueden realizar algunas tareas con un alto nivel de precisión, es difícil predecir cuándo y bajo qué circunstancias no lo harán (incluso si esto solo sucede en raras ocasiones). Esto, a su vez, dificulta la mitigación de los riesgos asociados. Los entrevistados también destacaron que muchos LLM pueden crear un riesgo de fuga de datos porque, en algunos casos, el propietario del LLM puede tener derecho a compartir las indicaciones que recibe con terceros; Esto aumenta el riesgo de que la información confidencial caiga en las manos equivocadas.

2. Introducción

2.1 Antecedentes de la investigación

La IA y el ML se han integrado cada vez más en el funcionamiento de la economía mundial, incluso dentro de la profesión actuarial. Además de los enormes beneficios potenciales para la productividad y la innovación, estos avances tecnológicos también pueden conllevar nuevos riesgos sustanciales cuando se aplican al trabajo actuarial.

El FRC encargó a GAD que llevara a cabo una investigación sobre el uso de la IA y el ML en el trabajo actuarial del Reino Unido mediante encuestas y entrevistas a profesionales en el campo. Este informe presenta los resultados de la investigación, con el objetivo de proporcionar una imagen más clara de cómo se utilizan la IA y el ML, tanto ahora como en el futuro.

Ninguna declaración en este informe relacionada con ninguna regla, política o enfoque regulatorio debe interpretarse como un respaldo o falta de él, ya sea por GAD o el FRC. Cualquier discusión sobre la regulación en este informe tiene como único objetivo presentar los puntos de vista de los participantes en la investigación sobre el tema. Nada en el informe debe considerarse indicativo de la opinión del GAD o del FRC sobre la regulación del uso de la IA/ML entre los actuarios.

2.2 Alcance de la investigación

Nuestra definición de trabajo de IA y ML se refiere a técnicas que permiten a las computadoras aprender de los datos sin ser programadas explícitamente. Se trata de algoritmos que pueden adaptarse y mejorar con el tiempo, aprendiendo de las experiencias (en forma de entradas de datos) para predecir resultados o tomar decisiones. Los algoritmos de IA/ML identifican patrones y relaciones dentro de los datos, que luego se pueden usar para predecir datos futuros o informar los procesos de toma de decisiones.

Por «trabajo actuarial» entendemos el trabajo que implica el ejercicio del juicio, y para el cual los principios y/o técnicas de la ciencia actuarial son centrales. Por ejemplo, el uso de análisis predictivos para estimar las tasas de mortalidad futuras sería un «trabajo actuarial», mientras que el desarrollo de un chatbot para interactuar con los clientes no lo sería.

El reclutamiento de los participantes en la encuesta y de los entrevistados se centró en gran medida en el Reino Unido, aunque hubo algunas contribuciones de actuarios que no residen en el Reino Unido. Por lo tanto, la investigación no puede utilizarse para extraer conclusiones sobre las prácticas o la dinámica del mercado en relación con el uso actuarial de la IA/ML fuera del Reino Unido.

La investigación abordó el uso de la IA y el ML para el trabajo actuarial. Esto incluyó el uso de IA y ML en cualquier etapa de la recopilación o análisis de datos que será un insumo para el trabajo actuarial.

2.3 Metodología de la encuesta

La investigación se llevó a cabo por primera vez a través de una encuesta en línea dirigida a actuarios con sede en el Reino Unido, en la que participaron un total de 104 personas. Si bien la atención se centró en los actuarios que ya utilizaban la IA y el ML en su trabajo, los profesionales que actualmente no utilizaban estas tecnologías también fueron bienvenidos a responder. Los encuestados fueron reclutados a través de los siguientes enfoques:

• Anuncios en el sitio web y en las redes sociales del GAD, el FRC y el Instituto y Facultad de Actuarios (IFoA).

• Artículos sobre la investigación en The Actuary y The Actuarial Post.

• Correos electrónicos y publicaciones en grupos de LinkedIn de actuarios que se ofrecen como voluntarios para el IFoA en los grupos de trabajo y comités relevantes, o aquellos suscritos a grupos de interés relevantes del IFoA. Esto incluía a los miembros de IFoA que habían completado el Certificado de IFoA en Ciencia de Datos.

• Comunicación a antiguos alumnos de universidades que ofrecen carreras de ciencias actuariales o similares.

• Dar a conocer la investigación en los seminarios web pertinentes del IFoA.

• Enfoques específicos para los actuarios con experiencia pertinente, por ejemplo, si han publicado artículos pertinentes o han hablado en conferencias.

• Enfoques específicos para los actuarios empleados por los mayores empleadores actuariales del Reino Unido.

• Acercamientos directos a los contactos del personal de GAD.

La encuesta estuvo abierta de enero a abril de 2023. Consistió en una combinación de preguntas de opción múltiple y de texto abierto destinadas a comprender el alcance y la forma en que los encuestados y sus organizaciones utilizan la IA y el ML. La mayoría de las preguntas fueron idénticas para todos los encuestados. Un pequeño subconjunto de preguntas contenía variaciones menores dependiendo del campo actuarial auto informado por el encuestado. Las preguntas de la encuesta se pueden encontrar aquí.

La Figura 2 muestra el número de encuestados de diferentes campos actuariales. Dado el análisis del momento de las respuestas a la encuesta, creemos que el mayor número de encuestados en ciertos campos, en particular los seguros generales, reflejó el mayor grado de uso de la IA/ML en esos campos, en comparación con una preferencia por los actuarios de seguros generales en la contratación de los participantes de la encuesta. También verificamos que la encuesta proporcionó una buena representación de personas con conocimientos sobre el uso de IA/ML en las subáreas específicas de estos campos. Algunos campos actuariales emplean a más actuarios que otros, lo que significa que la representación proporcional en todos los campos no necesariamente se habría traducido en el mismo número de encuestados en cada campo. Las estadísticas indicativas sobre la distribución de los actuarios por ámbito2 muestran que hay un número muy reducido de actuarios que trabajan en el sector de las inversiones, lo que podría explicar en parte las bajas tasas de respuesta en este ámbito.

Todas las cifras presentadas en este informe se basan en datos de la encuesta, a menos que se indique lo contrario en el pie de foto de la figura.

2.4 Metodología de la entrevista

La mayoría de los entrevistados fueron reclutados a través de la encuesta, que tenía la opción de ser contactados para una entrevista. El resto se contrató dirigiéndose a empleadores actuariales más grandes en el Reino Unido, y el contacto inicial se realizó a través del proceso de reclutamiento de la encuesta.

Para permitir una exploración más exhaustiva de algunos de los temas clave que surgieron de esta investigación, la encuesta se complementó con 20 entrevistas en profundidad con actuarios. Cada entrevista involucró entre uno y tres entrevistados, con un total de 37 entrevistados, cubriendo 21 organizaciones. Las entrevistas con más de una persona abarcaron una sola organización, excepto en un caso.

En la mayoría de las entrevistas, al menos un asistente ya había completado la encuesta. Las entrevistas se realizaron de forma semiestructurada utilizando una lista definida de preguntas. Los entrevistados fueron libres de dirigir la discusión hacia los temas que consideraron más pertinentes. Los entrevistadores pudieron solicitar aclaraciones o solicitar más detalles cuando se plantearon puntos de especial interés. Las entrevistas se realizaron entre marzo y junio de 2023.

Tenga en cuenta que estos campos se utilizan para ser coherentes con los proporcionados por los entrevistados en la encuesta que la mayoría de los entrevistados completaron. Este gráfico se basa en categorías auto informadas, por lo que los entrevistados que trabajan para Reaseguradores y sindicatos de Lloyd’s of London pueden incluirse en Seguros generales u otros. No hubo entrevistados en el campo de Finanzas e Inversiones.


Publicado originalmente: https://www.xbrl.org/news/frc-research-explores-increase-in-ai-in-uk-actuarial-work/

Deja una respuesta