Unwrapping black box models: a case study in credit risk
Autor
Fecha de publicación
5-dic-2022
Descripción física
26 p.
Resumen
The past two decades have witnessed the rapid development of machine learning techniques, which have proven to be powerful tools for the construction of predictive models, such as those used in credit risk management. A considerable volume of published work has looked at the utility of machine learning for this purpose, the increased predictive capacities delivered and how new types of data can be exploited. However, these benefits come at the cost of increased complexity, which may render the models uninterpretable. To overcome this issue a new field has emerged under the name of explainable artificial intelligence, with numerous tools being proposed to gain an insight into the inner workings of these models. This type of understanding is fundamental in credit risk in order to ensure compliance with the existing regulatory requirements and to comprehend the factors driving the predictions and their macro-economic implications. This paper studies the effectiveness of some of the most widely-used interpretability techniques on a neural network trained on real data. These techniques are found to be useful for understanding the model, even though some limitations have been encountered.
En las dos últimas décadas se ha observado un rápido desarrollo de las técnicas de aprendizaje automático, que han demostrado ser herramientas muy potentes para elaborar modelos de predicción, como los utilizados en la gestión del riesgo de crédito. En un volumen considerable de trabajos publicados se analizan la utilidad del aprendizaje automático para este fin, las mayores capacidades predictivas que ofrece y la forma en la que se pueden explotar nuevos tipos de datos. Sin embargo, estas ventajas llevan aparejada una mayor complejidad, que puede imposibilitar la interpretación de los modelos. Para solventar este punto ha surgido un nuevo campo de investigación, denominado «inteligencia artificial explicable» (del inglés explicable artificial intelligence), en el que se proponen numerosas herramientas para obtener información relativa al funcionamiento interno de estos modelos. Este tipo de conocimiento es fundamental en materia de riesgo de crédito para garantizar que se cumplen los requerimientos regulatorios existentes y para comprender los factores determinantes de las predicciones y sus implicaciones macroeconómicas. En este artículo se estudia la eficacia de algunas de las técnicas de interpretabilidad más utilizadas en una red neuronal entrenada con datos reales. Estas técnicas se consideran útiles para la comprensión del modelo, pese a que se han detectado algunas limitaciones.
En las dos últimas décadas se ha observado un rápido desarrollo de las técnicas de aprendizaje automático, que han demostrado ser herramientas muy potentes para elaborar modelos de predicción, como los utilizados en la gestión del riesgo de crédito. En un volumen considerable de trabajos publicados se analizan la utilidad del aprendizaje automático para este fin, las mayores capacidades predictivas que ofrece y la forma en la que se pueden explotar nuevos tipos de datos. Sin embargo, estas ventajas llevan aparejada una mayor complejidad, que puede imposibilitar la interpretación de los modelos. Para solventar este punto ha surgido un nuevo campo de investigación, denominado «inteligencia artificial explicable» (del inglés explicable artificial intelligence), en el que se proponen numerosas herramientas para obtener información relativa al funcionamiento interno de estos modelos. Este tipo de conocimiento es fundamental en materia de riesgo de crédito para garantizar que se cumplen los requerimientos regulatorios existentes y para comprender los factores determinantes de las predicciones y sus implicaciones macroeconómicas. En este artículo se estudia la eficacia de algunas de las técnicas de interpretabilidad más utilizadas en una red neuronal entrenada con datos reales. Estas técnicas se consideran útiles para la comprensión del modelo, pese a que se han detectado algunas limitaciones.
Notas
Artículo de revista
Publicado en
Financial Stability Review / Banco de España, 43 (Autumn 2022), p. 85-110
Otras versiones
Materias
Machine learning; Interpretability; Explainable artificial intelligence (AI); Credit scoring; Credit risk modelling; Aprendizaje automático; Interpretabilidad; Inteligencia artificial explicable; Scoring; Modelización de riesgos de crédito; Regulación y supervisión de instituciones financieras; Big data e inteligencia artificial; Riesgos y liquidez
Aparece en las colecciones: