Skip navigation

Unwrapping black box models: a case study in credit risk

Thumbnail
View
1,79 MB

Share:

Authors
Issue Date
5-Dec-2022
Physical description
26 p.
Abstract
The past two decades have witnessed the rapid development of machine learning techniques, which have proven to be powerful tools for the construction of predictive models, such as those used in credit risk management. A considerable volume of published work has looked at the utility of machine learning for this purpose, the increased predictive capacities delivered and how new types of data can be exploited. However, these benefits come at the cost of increased complexity, which may render the models uninterpretable. To overcome this issue a new field has emerged under the name of explainable artificial intelligence, with numerous tools being proposed to gain an insight into the inner workings of these models. This type of understanding is fundamental in credit risk in order to ensure compliance with the existing regulatory requirements and to comprehend the factors driving the predictions and their macro-economic implications. This paper studies the effectiveness of some of the most widely-used interpretability techniques on a neural network trained on real data. These techniques are found to be useful for understanding the model, even though some limitations have been encountered.

En las dos últimas décadas se ha observado un rápido desarrollo de las técnicas de aprendizaje automático, que han demostrado ser herramientas muy potentes para elaborar modelos de predicción, como los utilizados en la gestión del riesgo de crédito. En un volumen considerable de trabajos publicados se analizan la utilidad del aprendizaje automático para este fin, las mayores capacidades predictivas que ofrece y la forma en la que se pueden explotar nuevos tipos de datos. Sin embargo, estas ventajas llevan aparejada una mayor complejidad, que puede imposibilitar la interpretación de los modelos. Para solventar este punto ha surgido un nuevo campo de investigación, denominado «inteligencia artificial explicable» (del inglés explicable artificial intelligence), en el que se proponen numerosas herramientas para obtener información relativa al funcionamiento interno de estos modelos. Este tipo de conocimiento es fundamental en materia de riesgo de crédito para garantizar que se cumplen los requerimientos regulatorios existentes y para comprender los factores determinantes de las predicciones y sus implicaciones macroeconómicas. En este artículo se estudia la eficacia de algunas de las técnicas de interpretabilidad más utilizadas en una red neuronal entrenada con datos reales. Estas técnicas se consideran útiles para la comprensión del modelo, pese a que se han detectado algunas limitaciones.
Notes
Artículo de revista
Publish on
Financial Stability Review / Banco de España, 43 (Autumn 2022), p. 85-110
Other versions
Subjects
Appears in Collections:


loading