Les risques extrêmes sont-ils prévisibles ?
Si dans le monde assurantiel, la qualité des modélisations est de plus en plus pertinente, celle des risques extrêmes en est encore à ses balbutiements : combinaisons de plusieurs événements, risques émergents ou manque de données pertinentes rendent les prévisions difficiles. À côté des modèles standards insuffisants, les professionnels développent leurs propres modèles internes.
Prévoir l’imprévisible. Imaginer l’improbable. C’est tout l’objet de la modélisation des risques extrêmes, ces événements qui se caractérisent par leur faible fréquence et leur impact colossal. D’origine naturelle ou humaine, ils sont protéiformes (inondations, séismes, accidents industriels, terrorisme, pandémies, etc.) et n’en finissent plus de se multiplier au gré de l’activité humaine et des bouleversements climatiques : « Nous avons recensé environ 150 risques émergents. Parmi eux, le cyberterrorisme, un black-out énergétique, un acte de bioterrorisme provoquant intentionnellement une pandémie, ou encore une éruption solaire massive causant des pannes de réseaux électriques généralisées », énonce Wayne Ratcliffe, responsable du risk management de Scor. Identifier, voire imaginer ces risques n’est qu’une première étape. Encore faut-il parvenir à les modéliser : « Supposons qu’une distribution n’ait pas d’espérance, et que l’on calcule une moyenne empirique à partir de données tirées dans cette distribution, alors, d’un point de vue théorique, on sait que la loi de la moyenne empirique est dégénérée lorsque le nombre d’observations devient grand. On observera une grande variabilité de cette moyenne empirique, puisque l’on dispose d’un objet théorique qui n’existe pas. Certaines situations réelles conduisent à manipuler des objets mathématiques qui sont difficiles à modéliser ; il est de fait utopique de vouloir probabiliser des événements extrêmes liés à ces objets théoriques », estime Christian Robert, professeur à l’Institut de science financière et d’assurances.
Des modèles conçus pour des situations idéales
Pour tenter de prévoir la survenance des risques extrêmes et en estimer les dégâts potentiels, les professionnels peuvent s’appuyer sur un certain nombre d’outils, à commencer par les modèles fournis par des sociétés telles que RMS, EQECAT ou AIR, dont les coûts de licence annuelle avoisinent le million d’euros. Si ces modèles équipent quasiment tous les grands assureurs de la planète, leur imperfection est souvent pointée du doigt. La fiabilité et la pertinence des paramètres entrés – comme les données météorologiques et les dégâts potentiels qui s’ensuivent – font débat. En outre, de nombreux modèles ne sont calibrés que pour évaluer une situation extrême « idéale », formatée, et non concomitante d’un autre événement, ce qui réduit l’étude du champ des possibles… « La majorité des modèles se fonde sur des situations dites “stationnaires fortes et statiques”, affirme Christian Robert, c’est-à-dire que les risques peuvent être modélisés à l’aide de suites de variables aléatoires indépendantes et identiquement distribuées. Les événements extrêmes constituent alors des événements dont les propriétés sont bien connues : ils se produisent de manière isolée dans le temps et on arrive à connaître les retours. » La réalité n’est pas si simple… C’est pourquoi, ces modèles sont enrichis par l’approfondissement des études météorologiques, la différenciation des approches selon l’importance des événements et de leurs dégâts, ou encore la comparaison des résultats du modèle avec d’autres références. « Certains assureurs disposent de logiciels leur permettant de géolocaliser les biens qu’ils assurent en multirisques habitation (MRH). La confrontation de ces expositions avec les trajectoires probabilisées des tempêtes, par exemple, leur permet d’évaluer au mieux les dommages qu’ils sont susceptibles de subir et les besoins en capitaux réglementaires correspondants », précise Emmanuel Berthelé, actuaire chez Optimind Winter. Les modèles informatiques « formatés » sont ainsi complétés. Parfois même, ils sont supplantés par un modèle développé en interne, en particulier dans les grands groupes. « Nous pouvons étudier l’impact sur notre portefeuille d’un événement prédéfini, qui peut être historique (par exemple l’ouragan Katrina), ce que nous appelons “footprint scenario”. Cette approche ne fait pas directement appel au concept de probabilités. Une autre approche consiste à contrôler l’exposition aux événements ponctuels pour un seuil de probabilité donné (généralement 0,5 %). Quant aux scénarios annuels, ils peuvent être définis soit par facteur de risque, soit tous facteurs de risques confondus, c’est-à-dire à l’échelle du portefeuille du groupe. De nature plus complexe, ils sont uniquement fondés sur des modèles probabilistes », détaille Wayne Ratcliffe.
Le casse-tête des risques extrêmes combinés ou émergents
Mais la grande difficulté pour la profession concerne les risques extrêmes émergents et les risques combinés. D’abord, les situations dites « non stationnaires » induisent une grande incertitude sur plusieurs paramétrages et sont particulièrement complexes à modéliser : « Dans ce type de situation, les lois considérées comme constantes dans le temps ne fonctionnent pas. Par exemple, s’il n’existe pas de tendance moyenne claire de l’évolution des températures, il est difficile d’anticiper leurs modifications sur trente ans. Il faut combiner à la fois la modification des lois, la corrélation des événements et la compréhension d’un événement extrême dans le temps », signale Christian Robert. Par ailleurs, certains risques émergents, même bien identifiés, restent difficiles à modéliser : « c’est le cas du terrorisme, puisque l’observation du passé ne permet de cerner que très partiellement l’avenir. Sa modélisation s’appuie donc beaucoup plus sur les jugements d’experts », précise Wayne Ratcliffe.
Quant aux risques combinés, ils nécessitent de poser des hypothèses sur la survenance de deux ou plusieurs événements simultanés sur une courte période. Par exemple, la crise des subprimes foncières et ses répercussions (financières, sociales), la récurrence des tempêtes de 1990 en France, la combinaison de la RC aviation à l’assurance-vie lors des attentats du 11 septembre 2001 ou encore Fukushima (combinaison d’un séisme, d’un tsunami, d’un accident nucléaire et de risques industriels et opérationnels) n’avaient pas été nécessairement modélisés par les compagnies. Pour faire face à ces événements potentiels, les grands assureurs développent leurs propres logiciels de combinaisons de risques : « Nous modélisons les différents facteurs de risques, puis nous les agrégeons en modélisant leur structure de dépendance pour obtenir des probabilités combinées, pour un total de 100 000 scénarios (par facteur de risques et en agrégé) », indique Wayne Ratcliffe. Bien observés et analysés après leur survenance, les événements combinés n’en demeurent pas moins faiblement modélisés, alors même qu’ils représentent un risque sévère pour les assureurs. « Des hypothèses relatives à une succession d’événements rares et fortement improbables sont rarement intégrées aux modèles. Des méthodes comme la théorie des valeurs extrêmes multivariées, visant à étudier des phénomènes extrêmes non indépendants, sont encore peu considérées par les assureurs », remarque Emmanuel Berthelé.
[traitement;requete;objet=article#ID=613#TITLE=La VaR : une mesure de référence peu adaptée aux événements extrêmes]
Des scénarios laissés de côté
Alors que le propre des risques extrêmes est de survenir peu fréquemment, certains sont même si rares que les professionnels ne disposent quasiment d’aucune donnée pour pouvoir les évaluer : « Des scénarios extrêmes à probabilité très faible ne sont pas pris en compte par les assureurs. Par exemple, les éruptions volcaniques avec des périodes de retour supérieures à 5 000 ans : le niveau de probabilité est si faible que ces événements ne sont pas comptabilisés dans le calibrage des fonds propres des compagnies. Le problème, c’est qu’il existe beaucoup de scénarios à probabilité faible… », souligne Stéphane Chappellier, actuaire associé responsable du pôle IARD d’Actuaris.
Pas de modèle idéal
La modélisation des risques extrêmes est donc loin d’être achevée. De plus, cette tâche constitue un processus continu compte tenu de l’évolution dans le temps de ces phénomènes. « La difficulté est d’être proactif pour changer le modèle au bon moment. Pour cela, il faut détecter les phénomènes de rupture, l’obsolescence des données utilisées ou du modèle lui-même. Dans le cas d’une situation non stationnaire, il faut alors comprendre si une nouvelle observation est issue du même modèle ou si le modèle lui-même a changé. Mais si les données et/ou l’environnement sont trop instables, la mise à jour du modèle sera toujours obsolète », constate Christian Robert. Finalement, l’essence même d’un risque extrême n’est-elle pas d’être non modélisable, d’échapper au calcul ? Le véritable risque extrême serait ainsi celui auquel personne n’a pensé ou face auquel toute science est impuissante.
[traitement;requete;objet=article#ID=615#TITLE=Interview d'Ecaterina Nisipasu]