Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
Loisirs en France
22 juillet 2022

L'utilisation appropriée des modèles de risque

Les modèles de risque sont au cœur de l'autocontrôle du secteur financier ainsi que de la supervision par les régulateurs. Cette chronique, la première de deux, aborde la question de savoir comment les modèles de risque sont mal utilisés dans la pratique par les praticiens et les superviseurs. Cette mauvaise utilisation fait échouer la gestion des risques au moment où elle est le plus nécessaire.
Les modèles de risques financiers ont été largement critiqués pour leurs échecs tant théoriques que pratiques, notamment lors de la récente crise financière. Malgré cela, toutes les propositions visant à réformer l'utilisation des modèles ont rencontré une certaine résistance. Ce n'est pas surprenant, étant donné que les modèles sont profondément ancrés dans la pratique de la finance.
Ces sentiments sont exprimés avec éloquence dans la conclusion d'un commentaire sur un récent article de Vox ;
En tant que gestionnaire de risques, je reconnais pleinement les lacunes de tout modèle basé ou calibré sur le passé. Mais j'ai également besoin de quelque chose de pratique, d'objectif et de compréhensible pour mesurer le risque, fixer et faire respecter les limites, et encourager les discussions sur les positions quand cela compte. Il est très facile de critiquer depuis le bord du chemin - veuillez proposer une alternative la prochaine fois."
Notre objectif ici est de répondre aux défis tels que ceux mentionnés dans le commentaire de Jan-Peter en faisant des propositions spécifiques sur la façon dont les modèles de risque devraient être utilisés dans la pratique, et en identifiant comment les problèmes avec les modèles peuvent être évités. Pour un aperçu des aspects théoriques des modèles de risque, voir Danielsson (2009, 2011). Une analyse pratique des modèles peut être trouvée dans Macrae et Watkins (1998).
Nature du risque et des modèles de risque
Le risque financier est une prévision et non une mesure. Chaque prévision de risque est une évaluation incertaine des facteurs de risque sous-jacents, souvent avec de larges intervalles de confiance, résultant de l'incertitude des paramètres, de l'erreur de modèle et de la fouille des données, et contenant généralement un élément subjectif inconfortablement important. Même les estimations non paramétriques nécessiteront des choix tels que la période d'estimation.
Le risque financier ne peut être compris qu'en termes de modèle. Il peut s'agir d'un modèle formel, mais chaque fois qu'un utilisateur adopte une règle quelconque pour contrôler le risque, il doit y avoir un modèle impliqué par les règles adoptées. Par exemple, les restrictions du ratio de prêt impliquent un modèle simple selon lequel un plus grand nombre de prêts bancaires entraîne un plus grand risque. Un modèle plus complexe incorporant différents niveaux de risque de prêt et de risque opérationnel est implicite dans les pondérations de risque de Bâle II.
Malgré la dépendance au modèle et l'incertitude, les utilisateurs finaux ont tendance à percevoir les chiffres représentant le risque comme provenant d'une mesure scientifique - un Riskometer dans le langage de Danielsson ( 2009 )- plutôt que d'une procédure statistique incertaine. Les utilisateurs ont besoin de chiffres qu'ils peuvent utiliser pour convaincre leur patron, leur client ou leur régulateur. Les utilisateurs de modèles de risque préfèrent donc des prévisions de risque "objectives", alors que les prévisions accompagnées de réserves et d'incertitudes semblent moins objectives.
Nous soupçonnons que cela conduit les utilisateurs à préférer les logiciels de risque commerciaux qui fournissent un seul chiffre, non encombré d'intervalles de confiance, même si cela rend particulièrement difficile pour les utilisateurs d'évaluer la fiabilité des modèles sur étagère. Lorsque les intervalles de confiance sont estimés, leur fiabilité est souvent suspecte. Ceci est illustré succinctement par la déclaration de David Viniar, directeur financier de Goldman : "Nous voyions des choses qui étaient des mouvements de 25 écarts-types, plusieurs jours de suite" (Financial Times 2007). Cela ne peut que signifier que Goldman a grossièrement sous-estimé ses écarts types, rendant les intervalles de confiance beaucoup trop serrés.
Pourquoi les incertitudes dans les prévisions de risque sont-elles si élevées ?
Il existe plusieurs raisons pour lesquelles les incertitudes dans les prévisions de risques sont plus élevées que ce que l'on suppose habituellement :
La période d'estimation du modèle est trop courte ;
Il y a des ruptures structurelles pendant la période d'estimation ;
L'espionnage des données et l'optimisation des modèles se produisent ;
Les portefeuilles sont optimisés, ce qui maximise les erreurs ;
Il est souvent nécessaire de prévoir des risques extrêmes.
Les deux premiers problèmes étant bien connus, nous voulons nous concentrer sur les trois derniers.
Fouinage des données et optimisation des modèles
Chaque étudiant en économétrie apprend le danger du fouinage des données. Si nous effectuons une seule régression, nous obtenons des intervalles de confiance corrects pour les estimations des paramètres et les prévisions, sous réserve de certaines hypothèses de base. Si, toutefois, nous arrivons au même modèle à la suite de l'optimisation d'un certain nombre de variables explicatives et de spécifications de modèle, ces hypothèses sont violées et les intervalles de confiance seront sous-estimés. Plus le modèle est complexe et plus l'ensemble de données est petit, plus la sous-estimation est importante.
L'inférence trompeuse que peut provoquer le fouinage des données est démontrée par Sullivan et al. (1999), qui montrent que des règles de trading technique apparemment statistiquement significatives ne le sont pas si les intervalles de confiance sont calculés correctement, en tenant compte de la recherche du meilleur modèle.
Des effets similaires sont à l'œuvre dans la prévision des risques. Les modèles de risque sont régulièrement validés par des tests à rebours, c'est-à-dire en examinant la manière dont un modèle prévoit les résultats du marché qui se sont déjà produits. Si le modèle donne de mauvais résultats, il est modifié, et le résultat final est certain de donner de bons résultats en échantillon, sur la période de back-testing.
Ces approches courantes de la modélisation du risque nous renseignent davantage sur le niveau d'optimisation du modèle que sur la façon dont le modèle se comportera hors échantillon à l'avenir. La plupart des modèles de risque en pratique nous semblent accorder trop d'importance à leur capacité à s'adapter aux événements passés, plutôt qu'à la prévision du risque hors échantillon. Les modèles de risque doivent être parcimonieux et testés sur une variété de turbulences du marché s'ils veulent minimiser le problème de l'espionnage des données et de l'optimisation des modèles. Le modèle le plus performant en matière de prévision a peu de chances d'être le meilleur pour saisir les événements historiques avec une grande précision.
Cela impose une limite fondamentale à ce que les systèmes de gestion des risques peuvent réaliser, en particulier en cas de crise, car les modèles parcimonieux ne peuvent fournir une grande précision, mais les modèles non parcimonieux sont susceptibles d'échouer hors échantillon.
Optimisation du portefeuille et maximisation de l'erreur
Un problème connexe découle de l'utilisation de modèles de risque dans l'optimisation de portefeuille et le contrôle du risque. Lorsque les modèles de risque sont une entrée directe dans les décisions de trading, fournissant des contraintes dures sur les positions risquées, le processus de trading sous-jacent et les portefeuilles s'adapteront selon toute probabilité aux faiblesses du modèle et les exploiteront.
Ce problème se pose dans la mesure où les traders optimisent les portefeuilles en vue d'obtenir un faible risque déclaré (ou, de manière équivalente, une faible utilisation du capital) et des rendements élevés, ce qui fait que les décisions de trading sont biaisées en faveur des actifs présentant un risque sous-estimé. En d'autres termes, le trader maximise l'exposition à la partie de l'univers des actifs dont les prévisions de risque sont biaisées, maximisant ainsi l'impact que cette erreur a sur le portefeuille. Cette maximisation de l'erreur peut affecter les positions de trading individuelles, les institutions et même le système financier dans son ensemble, comme l'illustre la récente crise.
Avant la crise, de nombreux produits de crédit structurés, tels que certaines tranches de CDO, avaient des notations de crédit AAA non méritées. Comme de nombreux investisseurs percevaient à juste titre le risque de ces tranches AAA comme plus élevé que celui des obligations d'entreprise AAA, leurs rendements étaient généralement un peu plus élevés que ceux des obligations d'entreprise AAA. Cela a rendu ces tranches attrayantes pour les investisseurs moins avertis qui évaluaient le risque uniquement sur la base des notations de crédit.
Ce n'est pas la taille du biais de tarification ni l'ampleur de l'événement qui est le principal coupable ici ; le marché des CDO représente une part relativement faible du total des actifs financiers. Le problème est que la présence de contraintes très strictes basées sur des modèles de risque inexacts (et la maximisation des erreurs qui en découle) a motivé certaines institutions financières à acquérir de grandes expositions à ces actifs. Cela a conduit à des pertes concentrées ayant des conséquences systémiques dommageables.
La maximisation de l'erreur, en tant que gestion active du risque, conduit à une volatilité réduite et à des queues plus larges. Le risque lié aux événements courants est mieux géré, au détriment d'événements extrêmes plus importants et plus fréquents. Plus les modèles de risque sont rigoureux pour contraindre les positions, plus les erreurs seront maximisées et plus les conséquences seront dramatiques lorsque les erreurs seront finalement révélées.
Tous les modèles de risque contiennent des erreurs et sont donc vulnérables à la maximisation des erreurs. Plus un modèle est utilisé largement et plus une contrainte est serrée, plus la maximisation des erreurs est grave. Cela plaide en faveur de l'hétérogénéité des modèles de risque. Dans le pire des cas, lorsqu'un modèle ou une approche unique se voit conférer une force réglementaire et est appliqué comme une contrainte dure à de nombreux portefeuilles, un petit problème dans les réglementations micro-prudentielles peut être élevé à un niveau systémique.
Les gestionnaires de risques sont bien conscients du potentiel de maximisation des erreurs. Cependant, nous soupçonnons que ce phénomène n'est pas bien compris par les cadres supérieurs ni correctement pris en compte par les concepteurs des réglementations financières.
Cela impose une deuxième limite fondamentale à ce qu'un système de risque peut être censé réaliser, car les systèmes de risque utilisés pour contraindre les portefeuilles auront été compromis par l'optimisation implicite des portefeuilles pour contenir des actifs pour lesquels les systèmes de risque sous-estiment le risque. Les systèmes de risque qui ont été utilisés pour contraindre les positions se révéleront toujours peu fiables en cas de crise.
Prévisions des risques extrêmes
Le plus grand besoin de modèles se situe peut-être dans la prévision du risque extrême ou du risque de queue, en particulier pendant les périodes de crise financière et d'agitation extrême du marché. Il s'agit toutefois du domaine où les modèles de risque sont les moins fiables, car la taille effective de l'échantillon d'événements comparables est très faible. Au pire, il peut y avoir une observation ou même zéro lorsque nous souhaitons considérer des événements non encore vus.
Au cours du dernier demi-siècle, nous avons observé moins de 10 épisodes de turbulences extrêmes sur les marchés internationaux. Chacun de ces événements est essentiellement unique, et apparemment mû par des causes sous-jacentes différentes. Essayer de se faire une idée globale du processus statistique des données pendant ces épisodes de moins de 10 épisodes de turbulences, tous avec des causes sous-jacentes différentes est difficile, voire impossible. S'il est possible de construire un modèle adapté à 9 événements de crise d'affilée, rien ne garantit qu'il sera performant lors du 10e.
Il ne semble pas non plus probable que nous puissions obtenir beaucoup d'informations sur la dynamique des prix pendant la tourmente en utilisant les données hors crise qui constituent la majeure partie des informations disponibles, car il existe de nombreuses preuves que la dynamique du marché est très différente en temps de crise. La tradition du marché suggère qu'en temps de crise, les traders s'appuient davantage sur des règles empiriques simples (telles que toutes les actions ont un bêta de un", ou encore que le cash est roi") qu'en temps normal, plus nuancé. Cela est confirmé par des études universitaires, telles que Ang et al. (2002), qui montrent que les corrélations atteignent un pendant les crises (manifestation d'une dépendance non linéaire), en raison des incitations à échanger des actifs risqués contre des actifs sûrs lorsque les contraintes de risque s'appliquent, provoquant une rétroaction entre un risque toujours plus élevé et des contraintes plus fortes (voir Danielsson et al. 2010).
Il s'agit de la troisième limite fondamentale à ce que l'on peut attendre d'un système de risque. Quelle que soit la quantité de données dont nous disposons, il n'y en a jamais assez pour estimer les queues de manière fiable. C'est pourquoi on peut s'attendre à ce que les modèles de risque extrême échouent pendant les turbulences ou les crises du marché.
Dans notre prochaine colonne, nous examinons comment les défauts intrinsèques des modèles de risque importent pour leurs quatre principales utilisations. Nous faisons également quelques suggestions sur la manière dont l'industrie financière et les superviseurs devraient utiliser les modèles dans la pratique.

Publicité
Publicité
Commentaires
Loisirs en France
Publicité
Archives
Publicité