Continuando con el tema, el Consejo de Información Financiera (FRC) publicó recientemente un informe de investigación que profundiza en la mayor adopción de la Inteligencia Artificial (IA) y el Aprendizaje Automático (ML) en el panorama actuarial del Reino Unido.
Amplias entrevistas con profesionales de la industria revelaron que la IA y el ML se están incorporando al conjunto de herramientas actuariales, particularmente cuando se trata de evaluar los riesgos de siniestros, pronosticar los comportamientos de los grupos de asegurados y mejorar las interacciones con los clientes.
El informe también anticipa un aumento significativo en la adopción de IA y ML en este dominio, impulsado principalmente por el potencial transformador de estas tecnologías y acelerado por la aparición de modelos de lenguaje avanzados de gran tamaño como ChatGPT.
Sin embargo, una preocupación predominante que se refleja en los hallazgos de la investigación es la necesidad de «explicabilidad» con respecto a los modelos de IA y ML. Su naturaleza opaca, con modelos a menudo denominados «cajas negras», plantea un desafío considerable en el sector.
De particular interés es la identificación de riesgos que podrían afectar la calidad del trabajo actuarial. Estos incluyen preocupaciones sobre la calidad de los datos de origen que surgen de la capacidad de AI/ML para utilizar fuentes de datos extensas, a menudo no estructuradas, con supervisión humana limitada y una dependencia excesiva de los resultados sin una comprensión integral de sus limitaciones.
Además, el informe reconoce los riesgos relacionados con un etiquetado deficiente de los datos, con potencial de imprecisiones. Los entrevistados también expresaron su preocupación por posibles sesgos o imprecisiones sistemáticas en los datos utilizados para entrenar modelos de IA/ML, lo que da como resultado patrones de juicio defectuosos y una baja adaptabilidad de los modelos en diversos contextos.
¿La comida para llevar? Si bien la IA y el aprendizaje automático son muy prometedores en este campo, es clave continuar entrenando estas herramientas emergentes con datos de alta calidad, con las habilidades adecuadas y las pruebas necesarias para respaldar las conclusiones.
Mark Babington, director ejecutivo de Estándares Regulatorios del FRC, subraya la necesidad de abordar estas preocupaciones para garantizar la calidad y confiabilidad del trabajo actuarial a medida que la IA y el ML continúan dando forma a la industria. «El FRC espera que esta investigación estimule una mayor reflexión en la industria sobre cómo gestionar estos riesgos», afirma.