Square

Gestion ALM

À la recherche de la liquidité perdue

Créé le

15.12.2011

-

Mis à jour le

21.08.2012

Comme leur impose le contexte économique et réglementaire, les banques doivent renforcer leur dispositif de gestion du risque de liquidité. Le chantier est d’une grande complexité. En effet, il organise dans les banques un nouveau modèle économique et un nouveau système de pilotage, conditionnant largement leur capacité à survivre.

La cessation de paiement est aux entreprises ce que l’arrêt cardiaque est aux hommes : la cause de mortalité par excellence. Tous les chefs d’entreprises le savent et la gestion de trésorerie n’est jamais absente de leurs préoccupations. Pourtant, les grandes banques ont longtemps fait exception à cette loi générale. Leur capacité à faire face à leurs engagements semblait assurée par leur accès quasi illimité au crédit à court terme, ignorant, de fait, le risque de liquidité. Un assèchement généralisé des marchés ou une perte brutale de confiance des clients et des contreparties étaient, en effet, considérés comme autant de circonstances hautement improbables.

C’était avant août 2007. Depuis, les banques ont dû faire face à une série de crises majeures de liquidité initiées par la perte de confiance dans la solvabilité des subprime puis des États. Considérant cette contrainte comme un élément désormais durable de leur environnement, les banques ont engagé des projets de grande ampleur pour concevoir et mettre en œuvre des dispositifs industriels de gestion de risque.

En parallèle, les régulateurs ont renforcé leurs exigences de maîtrise de la liquidité au niveau national (méthode avancée de l’ACP, reporting détaillé de la FSA…) et au niveau international. Le risque de liquidité est une composante essentielle des exigences du comité de Bâle (Bâle III) repris au niveau européen par le CEBS, puis par la Commission à travers le projet de directive CRD4.

Une dimension essentielle de transformation de ressources

Au fond, ce n’est que la redécouverte d’un des fondamentaux du métier de banquier, qui avait été provisoirement occulté depuis la dernière guerre. L’activité d’une banque repose largement sur la transformation de ressources rapidement exigibles en emplois longuement indisponibles. Les taux longs étant en général supérieurs aux taux courts, la transformation est d’ailleurs un élément essentiel du modèle économique bancaire.

En pratique, cette transformation exige un renouvellement des ressources courtes pendant la durée des emplois longs, induisant inévitablement des risques :

  • un risque de taux qui serait de payer plus cher les ressources que ne rapportent les emplois ;
  • un risque de liquidité représentant l’incapacité à exécuter ce refinancement du fait soit de la méfiance des prêteurs soit de conditions de marché de crise.
La gestion des effets de ce décalage entre emplois et ressources du bilan est une discipline bien connue dans la banque sous le nom d’ALM ( Assets & Liabilities Management) ou gestion actif/passif, mais elle s’est surtout focalisée sur le risque de taux, négligeant longtemps, comme évoqué plus haut, le risque de liquidité.

La meilleure mesure du risque de liquidité

Pour permettre un pilotage de la liquidité, les concepts de l’ALM donnent lieu à une mise en œuvre plus ou moins sophistiquée :

  • mesure ponctuelle de la transformation par le calcul de ratios bilanciels ressources/emplois de maturités inférieures à un même horizon (le coefficient ACP standard calculé à 1 mois est un exemple de cette approche) ;
  • mesure plus générale de la transformation par le calcul d’impasses de liquidité à toutes les échéances, résultant de la comparaison des maturités des éléments d’actif et de passif du bilan et de conventions d’écoulement des postes non échéancés (c’était naguère l’état de l’art de l’ALM) ;
  • enfin, avec une ambition encore plus forte, simulation des cash-flows nets par une modélisation de l’ensemble des mouvements de cash futurs, entrants et sortants, sur la base des échéanciers contractuels des contrats ainsi que d’une probabilisation scénarisée des conditions de marché et du comportement des contreparties (retrait ou renouvellement des dépôts, remboursement anticipé des prêts, tirage sur les lignes de crédit…) et en intégrant ou non des hypothèses de production nouvelles (impasses dynamiques et statiques).
Cette troisième méthode s’impose aujourd’hui aux banques. Elle suppose un travail d’analyse détaillée – de très grande ampleur pour une banque universelle – de l’ensemble des produits vendus et transactions passées, pour déterminer les inducteurs de leur impact en liquidité (conditions du contrat, typologie de la contrepartie, données de marché…), expliciter les modalités modélisées de leur impact par des algorithmes, les calibrer et les « back-tester » régulièrement par des mesures statistiques directes ou indirectes. L’ensemble des impasses de liquidité ainsi modélisées dans divers scénarios tendanciels et de stress fournit à la fois la meilleure mesure du risque de liquidité encouru par la banque et les moyens d’analyse de ses diverses composantes.

Les leviers de pilotage du risque de liquidité

Une fois le risque mesuré, il reste à décider du niveau admissible par la banque et/ou le régulateur, puis à concevoir et mettre en œuvre un dispositif de pilotage assurant, d’une part, l’application effective de la tolérance au risque admise et, d’autre part, la couverture du risque résiduel accepté.

Les leviers de pilotage du risque de liquidité, généralement combinés, sont essentiellement de trois natures :

  • la réallocation stratégique des activités au profit des moins risquées, ou plus simplement une réingénierie des produits offerts à la clientèle (renversement de la tendance au développement de l’épargne non bilancielle, durcissement des conditions de retrait anticipé des dépôts à terme…) pour optimiser la ressource rare liquidité ou le couple risque/rentabilité ;
  • le rationnement quantitatif par des limites plafonnant les impasses de liquidité allouées aux divers centres de profit de la banque à la mesure de sa capacité de refinancement à risque maîtrisé ;
  • la régulation économique par la refacturation aux activités – et donc aux clients finaux – du coût des assurances prises contre le risque de liquidité en sus du taux de marché aux échéances considérées.
Quant à la couverture du risque résiduel, elle combine plusieurs stratégies, toutes coûteuses :

  • la mise en place de marges de manœuvre, sorte de coupe-feu intégrés dès l’origine dans les activités et permettant en cas de besoin de réduire rapidement et à un coût maîtrisé les positions de la banque et partant ses besoins en liquidité ;
  • l’ajustement aux besoins du portefeuille d’instruments de refinancement fermes et optionnels (allongement du refinancement) ayant pour objectif de réduire les impasses tendancielles ;
  • la constitution d’un coussin d’actifs liquides (naguère titres d’États bien notés, plus généralement tout actif de substitution désigné par la course des investisseurs vers la qualité) permettant de faire face à des périodes d’accès plus ou moins limitées au marché ; le but est alors de garantir à la banque un horizon de survie en cas de stress.

Des défis opérationnels majeurs

La mise en œuvre du programme qui vient d’être esquissée oblige une grande banque à relever une série de défis opérationnels majeurs.

Les premiers défis sont conceptuels. Il s’agit tout d’abord de concevoir des indicateurs pertinents pour déceler à temps les prémices du risque de liquidité et en comprendre les mécanismes sous-jacents, de façon à faciliter une réaction rapide : une gymnastique intellectuelle assez exceptionnelle pour une profession qui a construit tous ses outils de pilotage autour de la valorisation mark-to-market, faisant systématiquement abstraction du risque de liquidité qui viendrait contraindre la parfaite fluidité inter-temporelle implicite dans l’actualisation des flux.

Il faut ensuite modéliser le comportement en cash de l’ensemble des contrats et postes de bilan de la banque et évaluer notamment la liquidité des actifs détenus sous stress : une collaboration inédite à mettre en œuvre entre financiers, spécialistes du risque, opérationnels et spécialistes du marketing (pour leur connaissance de la segmentation et des comportements de la clientèle) qui ne parlent pas le même langage ni ne partagent la même culture.

Enfin, il s’agit de formuler des principes de pilotage garantissant simultanément l’application de la politique de risque de la banque et le respect des contraintes réglementaires : le choix par le comité de Bâle d’un modèle de régulation assis sur des indicateurs explicites universels (LCR, NSFR) plutôt que sur la validation de modèles internes conduit inéluctablement à des écarts entre l’appréciation « one size fits all » du risque par le régulateur et celle que la banque en fait pour elle-même. Les difficultés de prise en compte du risque de liquidité dans le pilotage de la banque en sont multipliées alors même que le pilotage sous multiples contraintes (P&L, RWA, risque opérationnel, capacité d’exécution…) est déjà un véritable casse-tête.

L’adaptation du système d’information

Une autre catégorie de défis a trait à la mise en œuvre du dispositif opérationnel et du système d’information.

La modélisation des cash flows suppose de collecter une information très détaillée sur l’ensemble des contrats, disséminée dans un grand nombre d’applications de gestion, de référentiels et d’entrepôts de données dans l’ensemble des entités de la banque. Les données requises ne recoupent que partiellement les flux de collecte déjà mis en place pour les besoins de la comptabilité, du contrôle de gestion ou de la gestion du risque de contrepartie.

La leçon de Bâle II montre que l’utilisation à l’échelle de toute la banque, d’informations initialement enregistrées dans les systèmes pour d'autres usages, locaux et purement opérationnels, promet à l’initialisation quelques surprises en matière de qualité de données. Il est donc essentiel d’accompagner la mise en place du dispositif de gestion du risque de liquidité, de processus et de SI dédiés au contrôle et à l’amélioration permanente de la qualité, de l’exhaustivité et de la cohérence des informations collectées.

Mais le temps des crises et des régulateurs est plus court que celui du déploiement complet d’un dispositif de gestion du risque de liquidité. Il est donc indispensable, pour pallier l’incapacité des SI à fournir rapidement l’information recherchée, d’imaginer et de mettre en œuvre sur certaines parties du périmètre des solutions temporaires plus légères assurant la complétude de l’approche au prix d’une précision moindre mais acceptable, sans renoncer à conduire la migration progressive de ces composants tactiques vers le dispositif cible.

Pour les banques décentralisées – et toutes les grandes le sont peu ou prou –, le développement d’un dispositif de gestion du risque de liquidité est l’occasion idéale pour déployer des centres de service partagés qui mutualisent les compétences rares et innovantes de modélisation normalisée des produits, d’architecture et de conception des SI, de mise en œuvre des progiciels spécialisés et qui optimisent les coûts de maintenance et d’exploitation.

Enfin, des processus et des outils de monitoring opérationnel devront être conçus et déployés, intégrant au pilotage des activités au jour le jour, une série de nouvelles fonctions : génération de scénarios de crise, simulation des contraintes de liquidité, révision permanente de la liquidité des différents actifs, gestion des crises et déclenchement d’actions de sauvegarde telles que la mobilisation de marges de manœuvre ou la vente d’actifs liquides…

La sélection darwinienne en cours

Les défis de gouvernance ne sont pas moindres :

  • faire accepter aux business un nouveau langage commun en rupture avec les concepts traditionnels, une nouvelle contrainte, des règles d’allocation de la pénurie et de refacturation du coût d’assurance ;
  • intégrer avec le moins d’effets pervers possible cette nouvelle contrainte au système d’objectivation globale des activités de la banque et ce avec une déclinaison en cascade jusqu’à ses centres de profit élémentaires ;
  • piloter au niveau groupe et en délai contraint par les régulateurs un grand projet transverse de normalisation, de création de process et de construction de SI.
Si aucun de ces défis n’est complètement inédit pris isolément, dans le cas du risque de liquidité, leur conjonction atteint un niveau exceptionnellement complexe même à l’aune de l’euro, de Bâle II ou des grandes intégrations post-fusion. Cette épreuve jouera probablement un rôle non négligeable dans la sélection darwinienne des banques du XXI e siècle, en leur imposant une mutation radicale vers un nouveau modèle économique et un nouveau système de pilotage.

À retrouver dans la revue
Revue Banque Nº744
RB