Dans le monde financier, avoir une main-d’œuvre dotée de solides capacités de prise de décision contribue grandement à assurer le succès d’une organisation. Bien sûr, au cours des dernières décennies, la barre collective a été relevée dans l’ensemble du secteur, car la numérisation et l’informatisation ont fourni aux entreprises des moyens plus avancés d’évaluer le couple risque- rendement et d’en déduire un ensemble approprié d’actions.
Mais des améliorations sont encore possibles.
Alors que la technologie continue de progresser et que les méthodes innovantes arrivent à maturité, il est essentiel que les grandes entreprises progressent et innovent afin que leur avantage concurrentiel reste intact. Dans ces lignes, nous examinons brièvement pourquoi les outils de test de résistance sont devenus plus importants sur le plan stratégique, faisons le point sur les méthodes actuelles de test de résistance et d’optimisation, et exposons ce que l’avenir peut réserver à ce domaine progressif et évolutif de la gestion des risques.
Regarder en arrière pour aller de l’avant
Même si la crise financière mondiale a eu lieu il y a 14 ans, ses effets se font toujours sentir, et cela est particulièrement valable pour le domaine de la gestion des risques. Il est difficile d’imaginer aujourd’hui que l’accent mis sur les tests du scénario du pire des cas reviendra un jour à l’objectif précédent de l’analyse de la variabilité. L’idée que la dynamique du marché pourrait être réduite à des processus relativement simples a tout simplement été abandonnée.
Les changements ont été ressentis de plusieurs manières. Les mesures traditionnelles de la variance et des quantiles sont désormais complétées par des mesures de probabilité supplémentaires. Les gouvernements (via le G20 en particulier) s’attendent désormais à ce que les entreprises financières incluent une quantification subjective de toutes les conditions fortement défavorables qu’elles jugent à la fois matérielles et possibles lors de l’analyse des risques systémiques et des risques de variation de cours dans la queue de la distribution. Et les établissements financiers d’importance systémique (Systemically Important Financial Institutions, SIFI) sont soumis à une longue liste de réglementations du Conseil de stabilité financière concernant leur gestion et leur déclaration des risques « extrêmes ».
Pour ces trois exemples, les tests de résistance sont devenus l’outil de choix. Et tandis que certains peuvent soutenir que l’évaluation des pires scénarios est plus un art qu’une science, un regard sur les informations que les entreprises sont maintenant censées produire devrait montrer clairement que des capacités de simulations financières très avancées - dont certaines sont encore en cours de développement - sont essentielles dans le monde d’aujourd’hui.
Viser la perfection
Au cœur de tout outil de test de résistance se trouve un puissant moteur de simulation. Grâce à la disponibilité d’appareils économiques et aux progrès des techniques informatiques distribuées à hautes performances, il est désormais possible de calculer des projections de positions et d’expositions avec une vitesse vertigineuse et une précision extrême. Définir des états futurs à la fois plausibles et cohérents est cependant plus délicat.
Heureusement, les états futurs peuvent être constitués d’une combinaison de plusieurs moteurs qui bénéficient de décennies de recherche et d’ingénierie. Les moteurs suivants disposent déjà d’un grand nombre de méthodes et de modèles :
- Conditions économiques et de marché
- Potentiel des contreparties à faire défaut ou à manquer à leurs obligations
- Potentiel des événements conditionnels à être déclenchés
- Appétence et comportement des agents économiques
- Coût et efficacité de la récupération après un événement indésirable
Cependant, tous les moteurs ne sont pas aussi bien explorés, et s’ils suscitent toujours un vif intérêt académique, certains domaines restent imparfaits, tels que :
- Mettre en œuvre des techniques d’apprentissage automatique pour capturer les caractéristiques comportementales
- Modélisation de la contagion et de l’amplification par propagation des chocs individuels
- Intégration de l’effet de bouclage dans les simulations à longue portée
- Mieux représenter et évaluer les dépendances croisées entre les éléments de risque individuels
- Modélisation d’actifs, de marchés et de contreparties dont la connaissance est incomplète ou pour lesquels les mécanismes d’ajustement sont inefficaces ou faussés
La recherche sur ces facteurs se poursuit, mais même si nous pouvions résoudre toutes les lacunes des méthodes de simulation existantes, nous serions encore loin de pouvoir modéliser une éventuelle crise future. Ce qui intrigue les économistes et les professionnels de la finance depuis des générations, c’est le phénomène par lequel elles se développent : Qu’est-ce qui fait éclater les bulles ? Accélérer l’inflation ? Chuter la consommation ? Changer le sentiment des investisseurs ? Et lorsque de tels événements se produisent, qu’est-ce qui fait que la cascade de réactions va dans un sens plutôt que dans un autre ?
L’analyse rétrospective donne tort même aux meilleurs experts. Le test de résistance n’est donc pas un outil ultime pour atténuer les situations extrêmes, mais plutôt une méthode pour se préparer à affronter des scénarios imprévisibles en construisant une carte de référence des possibilités catastrophiques.
Revenez sur vos pas avant d’avancer
En termes simples, un scénario de stress associe un résultat hautement indésirable à l’ensemble des conditions (valeurs initiales et évolution des « facteurs » de risque) qui y ont conduit. Il est donc naturel d’essayer d’identifier les scénarios particuliers qui peuvent conduire à une liste sélectionnée de résultats particulièrement indésirables. Le terme « inverse » est alors utilisé, bien que la relation entre les scénarios et les résultats ne soit pas vraiment réversible (au moins dans le sens d’un problème « bien posé »). Comme il est généralement difficile d’effectuer une analyse inverse, un large éventail de méthodes ont été envisagées. De plus en plus, les algorithmes d’apprentissage machine viennent à la rescousse pour faciliter la livraison de solutions pratiques.
Cependant, les problèmes de grande dimension peuvent s’avérer être très difficiles à vaincre. L’inversion du stress sur un portefeuille complexe avec de nombreux moteurs interconnectés peut nécessiter une puissance de calcul extrêmement importante. Une approche courante pour atténuer ce problème consiste à remplacer un portefeuille par une version simplifiée qui conserve ses principales caractéristiques de risque. Si ce processus de réduction lui-même peut s’avérer assez laborieux, des expériences récentes ont montré que les technologies modernes peuvent surmonter le défi.
L’envers de la médaille des tests de résistance : l’optimisation de la rentabilité
Jusqu’à présent, nous avons exploré comment le risque peut être quantifié via des tests de résistance. Cependant, la rentabilité peut également être quantifiée de la même manière. La simulation simultanée de rendements et de pertes inattendues donne une bonne indication de la part du risque supplémentaire pris en charge par un rendement excédentaire. Par exemple, un établissement financier peut décider de mettre en œuvre une politique de crédit agressive pour gagner des parts de marché au prix d’une détérioration de son profil de risque. La projection de l’effet de ces décisions est généralement appelée planification stratégique d’entreprise. L’extension de l’approche aux risques systémiques et de variation de cours dans la queue de la distribution est au cœur de la gestion de l’appétence pour le risque.
Tous les établissements financiers ajustent en permanence leurs paramètres commerciaux (composition du portefeuille, tarification et politiques de risque, etc.) dans le but de maximiser les performances ajustées au risque tout en contenant le budget des « risques extrêmes » dans des limites acceptables. Il s’agit essentiellement d’un problème d’optimisation des tests de résistance inversés. Malheureusement, si l’on considère l’ensemble du bilan d’un établissement financier, le degré de complexité du problème devient très élevé, et le système utilisé pour l’optimiser contient trop de degrés de liberté pour qu’une méthode conventionnelle puisse être appliquée avec succès. C’est du moins le cas pour l’instant : cela peut changer avec l’avancée de la technologie de l’informatique quantique, mais il faudra attendre quelques années pour que des solutions pratiques soient disponibles.
Cela ne veut pas dire que l’optimisation ne peut pas être appliquée aux problèmes commerciaux des établissements financiers. Au contraire, si l’on décompose le bilan en éléments gérables, il est toujours possible d’explorer des ensembles de scénarios bien définis dans le but de maximiser une métrique composite qui représente les objectifs de l’entreprise. Cette perspective définit la prochaine étape pour les systèmes de gestion de l’actif et du passif (ALM).
Plus qu’une caractéristique ou une fonction
En résumé, les tests de résistance et l’optimisation ne sont pas des « caractéristiques » qu’un système de gestion des risques possède ou ne possède pas. Ils devraient plutôt être traités comme des domaines multifonctionnels où des améliorations continues peuvent être apportées pour permettre aux établissements financiers de mieux comprendre, de se préparer, d’évaluer et de signaler les situations qui pourraient avoir un impact grave sur leurs activités. Ils doivent également être considérés comme des mécanismes puissants qui peuvent ajuster la structure d’un bilan et la composition du portefeuille d’une entreprise pour maximiser les opportunités commerciales, tout en contrôlant l’exposition aux risques systémiques et de variation de cours dans la queue de la distribution.
Les capacités actuelles de la finance informatique prennent déjà en charge ces processus de manière assez satisfaisante, et la recherche et l’expérimentation actives continuent de repousser les limites de ce qui est réalisable. Mais ce que nous savons, maintenant et à l’avenir, c’est qu’une base solide au sein d’un système de tests de résistance et d’optimisation est essentielle pour garantir les meilleurs standards possibles de représentation et de simulation de l’exposition.