La dernière étude de l’Institut Louis Bachelier, rédigée par deux professeurs d’économie, Christophe Hurlin et Christophe Pérignon, mérite une attention particulière de la part des banquiers mais aussi des DAF, car elle porte sur les modalités et les enjeux de l’utilisation des méthodes d’apprentissage automatique (Machine Learning ou ML) dans le cadre du scoring du risque bancaire basé sur des notations internes (Internal Rating Based ou IRB). Ce scoring permet le calcul des fonds propres réglementaires (Risk Weghted Assets) des banques, conformément aux dispositions de l’accord de Bâle IV et des directives européennes CRR/CRD, qui garantissent en principe leur solvabilité financière et déterminent leur coût du crédit. En novembre 2021, l’Autorité Bancaire Européenne (EBA) avait déjà alerté les milieux bancaires sur les risques encourus par l’usage de techniques statistiques sophistiquées – et notamment des algorithmes de ML – dans le credit scoring, afin d’éviter une crise bancaire comparable à celle de 2008.

Les deux chercheurs ont réalisé leur étude à partir des résultats des dernières recherches universitaires et des rapports des banques sur leur notation interne. Ils constatent que le ML est encore peu utilisé pour se conformer aux règlements (IRB, IFRS9, stress tests…) applicables par les banques européennes, mais qu’il est appelé à se développer rapidement dans les années à venir. Les banquiers restent encore partagés entre la crainte d’utiliser des algorithmes « boites noires » et les opportunités offertes par le ML. Les deux chercheurs tirent de leurs travaux trois observations majeures qu’ils assortissent de recommandations. La première est que la traçabilité et la gestion des données constituent la priorité du credit scoring quel que soit le modèle appliqué, usuel ou de ML. La seconde observation est que certains modèles de ML (comme Baggin, SVM, ANN, Booting…) contribuent à améliorer la précision du paramétrage du risque, par rapport aux approches paramétriques conventionnelles (basées sur des régressions logistiques). Le ML permettrait ainsi de réduire les fonds propres réglementaires dans des proportions de 2% à 20%, mais plus ce taux est élevé et plus leur justification est difficile et leur validation par le régulateur improbable. L’application de la plupart des modèles de ML conduit à de faibles diminutions des fonds propres et certains modèles entraînent même leur augmentation. La troisième observation porte sur la corrélation entre les gains apportés par les modèles et leur degré de complexité. Les auteurs constatent un certain plafonnement de la productivité des algorithmes, malgré un accroissement de leur complexité qui rend de plus en plus difficile leur interprétation. L’application du ML exige un délicat arbitrage entre performances et interprétabilité, de la part des équipes chargées du scoring. C’est pourquoi les auteurs préconisent de développer des modèles « nativement explicables et justifiables » dans le contexte IRB, afin d’être validés par les régulateurs et de mieux respecter « l’équité algorithmique » recherchée par l’AI Act voté le 23 juin 2023 par le Parlement européen.

Le recours au ML dans le cadre de l’IRB devrait notamment contribuer à une meilleure diversification des risques bancaires et à une meilleure prise en compte de trois types de risques financiers liés au changement climatique: le risque physique, qui intègre les conséquences des aléas climatiques ; le risque de responsabilité, qui porte sur les poursuites judiciaires intentées contre les entreprises ne se conformant pas aux réglementations environnementales ; le risque de transition, qui recouvre les coûts induits par le passage à un modèle industriel bas carbone. La notation basée sur le ML permettrait ainsi de justifier le renchérissement du crédit accordé aux entreprises insuffisamment engagées dans la RSE.