Machine Learning et optimisation du RWA

MACHINE LEARNING ET OPTIMISATION DU RWA

  • Aurélie Lustenberger, Badr Kabbaj
  • Published: 28 May 2019

Que sont les actifs pondérés au risque ou RWA (Risk Weighted Assets) ? Focus sur le risque de crédit

Les actifs pondérés au risque est une mesure permettant aux banques de déterminer la quantité de fonds propres à détenir pour faire face à des pertes imprévues au-delà de ce qu’elles peuvent supporter. Chaque exposition à une classe d’actifs est multipliée par la pondération retenue en fonction des risques liés à cette classe. Plus il y a d’actifs pondérés, plus la banque a besoin de détenir de fonds propres et inversement. 

Le risque de crédit représente l’essentiel de la prise de risque, et des exigences de fonds propres pour la plupart des banques. Il existe deux principales approches pour le calcul du RWA pour le risque de crédit :

  • Une approche standard (SA) : Le régulateur impose les pondérations à appliquer aux actifs lors du calcul du RWA
  • Une approche notation interne (F-IRB et A-IRB) : les banques utilisent leurs propres modèles empiriques pour l’estimation du risque de crédit, et par conséquent des pondérations à appliquer aux actifs. Les principales mesures sur lesquelles les banques peuvent jouer, sont la probabilité de défaut (PD), la perte en cas de défaut (LGD) et l’exposition en cas de défaut (EAD)

L’un des plus grands enjeux des banques aujourd’hui est de réduire le RWA qui devient de plus en plus pesant en termes de quantités de fonds propres à mobiliser. Une mesure plus précise de la probabilité de défaut (PD) et la perte en cas de défaut (LGD) dans le cadre de l’approche notation interne contribuera inéluctablement à réduire le RWA. Par la suite, nous allons voir comment l’apprentissage automatique peut aider à atteindre de meilleures précisions sur ces mesures.

Un peu de théorie, l’apprentissage automatique ou le « Machine Learning », qu’est-ce que c’est ?

Il s’agit de techniques issues de l’intelligence artificielle, permettant à des machines d’apprendre, d’une manière plus ou moins autonome, à réaliser des tâches sans être explicitement programmées pour. On peut citer 2 grandes familles d’apprentissage automatique :

L’apprentissage supervisé : l’algorithme cherche à prédire un phénomène ou une mesure en se basant sur l’historique des réalisations de cette dernière ainsi que des observations passées de variables explicatives de ce phénomène. Pour caricaturer, supposons par exemple que l’on cherche à prédire si une entreprise pourra honorer sa dette. Nous commencerons par sélectionner un ensemble de variables plus ou moins corrélées positivement ou négativement au défaut général, telles que la structure des actionnaires, des conditions macroéconomiques, des données sectorielles ou la performance des bénéfices, voire même la réputation sur le net.

L’algorithme va ensuite chercher à déduire de lui-même une loi assez complexe qui lie ces variables explicatives à l’événement de défaut en ayant comme référence les observations passées (échantillon d’apprentissage). C’est ce qu’on appelle la phase d’entrainement. Par la suite (algorithme en production), il suffira de fournir l’état actuel de ces variables explicatives pour que l’algorithme déduise de lui-même l’événement futur de défaut/non défaut.

L’apprentissage non supervisé : Ici, Il ne s’agit pas de prédire une mesure particulière, l’algorithme cherche plutôt de lui-même à déceler des structures ou regroupements caractéristiques sur un ensemble d’observations qu’on lui fournit. Un exemple typique, est la détection de fraude sur des transactions bancaires. L’algorithme va analyser l’ensemble des transactions qu’on lui fournit sans avoir à priori de connaissance explicite sur leur caractère frauduleux. Il va automatiquement identifier des regroupements, ce qui permettra éventuellement d’isoler les transactions frauduleuses.

Apprentissage automatique pour le risque de crédit, une bonne idée ? 

Bien que les premières théories derrière l’apprentissage automatique datent de la seconde moitié du 20ème siècle, l’augmentation vertigineuse récente de la quantité de données disponibles ainsi que des capacités de calcul rend son utilisation légitime plus que jamais dans la gestion des risques, que ce soit le risque de crédit ou le risque de marché, le risque opérationnel ou la conformité.

L’évaluation du risque de crédit qui est le risque de perte émanant d’une contrepartie incapable d’honorer son obligation contractuelle, s’est depuis longtemps basée sur des techniques basiques d’apprentissage automatique, pour déduire des scores de crédit, en utilisant une quantité limitée de données structurées. Il est aujourd’hui possible d’utiliser des modèles plus avancés, capables de gérer une haute dimensionalité de variables. Ces modèles permettraient alors de tirer profit d’une panoplie d’autres données externes structurées ou non structurées telles que les réseaux sociaux, les médias, les données macroéconomiques, géopolitiques ou sectorielles, afin de mieux estimer la probabilité de défaut et la perte en cas de défaut.

L’application de l’apprentissage automatique à ces données combinée à des données financières classiques telles que la structure des actionnaires, les ratios financiers, les performances des bénéfices, permettrait de capturer une vision plus nuancée de la solvabilité. Cela pourrait augmenter significativement la précision des mesures de PD et de LGD, réduire les coûts de développements des modèles et accélérer les décisions d’octroi de crédit. Mieux encore, ces modèles peuvent évoluer au cours du temps, apprendre de leurs erreurs et s’adapter aux changements structurels du système financier.

L’apprentissage automatique, à quel prix ?

Bien que ces techniques aient démontré des performances supérieures aux modèles classiques, leur aspect « boite noire » demeure un inconvénient non négligeable. En effet, dans un domaine aussi régulé que la gestion des risques, la transparence est un enjeu majeur.

Prenons l’exemple d’un algorithme très populaire aujourd’hui de la famille des algorithmes d’apprentissage supervisé : « les forêts aléatoires ». Cet algorithme va construire un ensemble de règles sur les variables explicatives sous forme d’une succession de « Si… Alors… » pour en déduire la mesure ou le phénomène à prédire. En fonction de la complexité du problème, il est commun d’arriver à des arbres avec une profondeur dépassant les centaines de branches « Si…alors… ». L’algorithme va plus loin encore et utilise une technique connue sous le nom de « technique d‘ensemble » réduisant le phénomène de « sur-apprentissage ». Elle consiste à produire différents arbres en utilisant différents ensembles d’apprentissage. La prédiction se fait ensuite par vote de ces différents arbres. Nous voyons ici qu’il serait très difficile pour un humain d’interpréter la logique de prédiction. 

Dépasser les limites 

Nous nous trouvons donc dans un contexte ambivalent. D’une part, les régulateurs (Européens ou Américains) portent une attention croissante à la modélisation des risques par les banques.

D’autre part, de nouvelles possibilités sont offertes aux banques pour affiner leurs modèles via l’utilisation de nouvelles sources de données couplées à des algorithmes d’apprentissage automatique encore plus avancés, qui peuvent se révéler des boites noires. Il est donc primordial que les banques et les régulateurs travaillent ensemble afin de poser le cadre et les limites de l’utilisation de ces nouveaux outils tout en permettant d’améliorer et d’affiner la prévision des risques financiers.