Unwrapping black box models: a case study in credit risk
Authors
Issue Date
5-Dec-2022
Physical description
32 p.
Abstract
The past two decades have witnessed the rapid development of machine learning
techniques, which have proven to be powerful tools for the construction of predictive
models, such as those used in credit risk management. A considerable volume of
published work has looked at the utility of machine learning for this purpose, the
increased predictive capacities delivered and how new types of data can be
exploited. However, these benefits come at the cost of increased complexity, which
may render the models uninterpretable. To overcome this issue a new field has
emerged under the name of explainable artificial intelligence, with numerous tools
being proposed to gain an insight into the inner workings of these models. This type
of understanding is fundamental in credit risk in order to ensure compliance with the
existing regulatory requirements and to comprehend the factors driving the
predictions and their macro-economic implications. This paper studies the
effectiveness of some of the most widely-used interpretability techniques on a neural
network trained on real data. These techniques are found to be useful for
understanding the model, even though some limitations have been encountered.
En las dos últimas décadas se ha observado un rápido desarrollo de las técnicas de aprendizaje automático, que han demostrado ser herramientas muy potentes para elaborar modelos de predicción, como los utilizados en la gestión del riesgo de crédito. En un volumen considerable de trabajos publicados se analizan la utilidad del aprendizaje automático para este fin, las mayores capacidades predictivas que ofrece y la forma en la que se pueden explotar nuevos tipos de datos. Sin embargo, estas ventajas llevan aparejada una mayor complejidad, que puede imposibilitar la interpretación de los modelos. Para solventar este punto ha surgido un nuevo campo de investigación, denominado «inteligencia artificial explicable» (del inglés explicable artificial intelligence), en el que se proponen numerosas herramientas para obtener información relativa al funcionamiento interno de estos modelos. Este tipo de conocimiento es fundamental en materia de riesgo de crédito para garantizar que se cumplen los requerimientos regulatorios existentes y para comprender los factores determinantes de las predicciones y sus implicaciones macroeconómicas. En este artículo se estudia la eficacia de algunas de las técnicas de interpretabilidad más utilizadas en una red neuronal entrenada con datos reales. Estas técnicas se consideran útiles para la comprensión del modelo, pese a que se han detectado algunas limitaciones.
En las dos últimas décadas se ha observado un rápido desarrollo de las técnicas de aprendizaje automático, que han demostrado ser herramientas muy potentes para elaborar modelos de predicción, como los utilizados en la gestión del riesgo de crédito. En un volumen considerable de trabajos publicados se analizan la utilidad del aprendizaje automático para este fin, las mayores capacidades predictivas que ofrece y la forma en la que se pueden explotar nuevos tipos de datos. Sin embargo, estas ventajas llevan aparejada una mayor complejidad, que puede imposibilitar la interpretación de los modelos. Para solventar este punto ha surgido un nuevo campo de investigación, denominado «inteligencia artificial explicable» (del inglés explicable artificial intelligence), en el que se proponen numerosas herramientas para obtener información relativa al funcionamiento interno de estos modelos. Este tipo de conocimiento es fundamental en materia de riesgo de crédito para garantizar que se cumplen los requerimientos regulatorios existentes y para comprender los factores determinantes de las predicciones y sus implicaciones macroeconómicas. En este artículo se estudia la eficacia de algunas de las técnicas de interpretabilidad más utilizadas en una red neuronal entrenada con datos reales. Estas técnicas se consideran útiles para la comprensión del modelo, pese a que se han detectado algunas limitaciones.
Notes
Artículo de revista
Publish on
Revista de Estabilidad Financiera / Banco de España, 43 (otoño 2022), p. 91-122
Other versions
Subjects
Machine learning; Interpretability; Explainable artificial intelligence (AI); Credit scoring; Credit risk modelling; Aprendizaje automático; Interpretabilidad; Inteligencia artificial
explicable; Scoring; Modelización de riesgos de crédito; Regulación y supervisión de instituciones financieras; Big data e inteligencia artificial; Riesgos y liquidez
Appears in Collections: