Risques émergents : “La modélisation actuarielle de ce type de risques reste très peu abordée"
Éric Lecœur
Directeur de l’Actuariat Groupe de Scor, membre qualifié de l’Institut des actuaires, Fellow of the Institute of Actuaries, membre du conseil d’administration de l’Institut des actuaires. Il est coauteur du livre Provisionnement technique en assurance non-vie (Economica, 2007) et a participé entre autres à l’ouvrage La Réassurance, Approche technique (Economica, 2003).
La littérature actuelle aborde très souvent la problématique des risques émergents, sous l’angle des sciences physiques ou économiques, voire même parfois sous un angle philosophique. Très peu d’articles traitent de la modélisation actuarielle de ce type de risques, potentiellement générateurs d’une sinistralité significativement sous-estimée et/ou non anticipée à la date de leur souscription et déclarée tardivement. À l’origine de ce manque, on trouverait sans doute les évolutions des modélisations mathématiques, qui sont souvent en retard par rapport aux innovations technologiques. De plus, l’actuaire est quelque peu dépourvu face au manque d’expérience statistique exploitable, au format parfois très qualitatif de l’information et à son asymétrie.
Cependant, toute approche de modélisation de ces risques ne peut être mise en place sans faire au préalable une analyse, dans le cadre d’une politique de risk management globale, de la source des risques émergents, qui pourra être identifiée à l’aide de cartographies construites par exemple grâce à la méthode « Pestel » (politique, économique, social, technologique, environnemental et législatif, méthode appliquée par le Forum économique mondial).
En ce qui concerne la modélisation et à titre d’exemple, l’observation du passé et l’analyse des sinistres amiante de la fin des années 1980 ainsi que la large base de données collectées lors des différents procès retentissants aux États-Unis, notamment contre la société Johns Manville Corporation, nous apprennent deux choses :
- les prévisions effectuées à l’époque se sont toutes révélées fausses ;
- une modélisation a posteriori par une courbe en S de la fréquence et/ou de la sévérité cumulée se révèle adéquate, comme le confirment des tests d’ajustement. Cette méthode de plus se révèle aisée à mettre en œuvre.
La forme analytique générale de la fonction ayant un graphique en forme de S est :
y = signe(x-b).s.(|x-b|)p+c
avec l’axe des abscisses x représentant les périodes calendaires et l’axe des ordonnées y représentant indifféremment soit les montants cumulés des sinistres soit leur nombre. Les quatre paramètres de cette courbe représentent successivement :
b = date à laquelle apparaît son point d’inflexion ;
s = constante positive qui détermine son amplitude ;
p = nombre compris entre 0 et 1 (généralement sélectionné dans la famille des fractions 1/3, 1/5, 3/5, 1/7, 3/7, 5/7….) qui détermine sa forme ;
c = montant ou nombre cumulé au point d’inflexion b qui translate la courbe par rapport à l’axe des abscisses (il est choisi de manière à ce que l’ordonnée soit zéro à la première période calendaire).
Cette fonction, divergente lorsque x tend vers l’infini, impose le choix d’une troncature pour les grandes valeurs de x. Classiquement, cette troncature pourra être le point à partir duquel les incréments de la courbe sont suffisamment petits. Cette modélisation étant posée, c’est précisément à ce moment que l’actuaire est confronté à l’incertitude de la connaissance des paramètres (b, s, p, c) précités et s’oriente naturellement, et par défaut, vers la production de scénarios des possibles.
D’autres modélisations furent testées, comme les fonctions Gamma ou Arc tangente, ainsi que des approches par équations différentielles (K. Fleming)1 dont la solution n’est autre que la courbe logistique. Cependant ces modélisations s’ajustaient moins efficacement aux données.
La théorie des valeurs extrêmes permettant de simuler des événements non observés, ainsi que la théorie bayésienne peuvent trouver également dans ce cadre une application. La méthode bayésienne pourra être alimentée par des jugements d’experts déterminés en utilisant la méthode Delphi, approche itérative permettant de mettre en évidence une convergence d’opinion sur des zones d’incertitudes en vue d’une aide à la décision.
Tout cela ouvre un vaste champ de sujets de travaux actuariels, surtout lorsque l’on sait que certains de ces risques peuvent être corrélés les uns aux autres de façon non linéaire.
En conclusion, si tous les cahiers des règles professionnelles ainsi que les nouvelles normes réglementaires mentionnent clairement que l’actuaire se doit de bien définir le cadre et les limites de sa modélisation, il n’en demeure pas moins que les directions générales ont besoin de connaître l’impact potentiel sur les comptes de l’entreprise de ces risques et ne peuvent se satisfaire d’une incertitude du second ordre. Ces risques sont certes difficilement modélisables au sens classique du terme. Ainsi, lors de la tarification, ils ne sont que trop rarement pris en compte. Ils sont donc couverts… gratuitement, le droit étant bien souvent favorable aux assurés. Une possibilité pourrait être d’exclure contractuellement ces risques, plaçant potentiellement la compagnie hors marché, ou alternativement de se couvrir sur les marchés financiaers.
De plus, la provision pour égalisation n’étant plus d’actualité en normes IFRS, l’assureur ou le réassureur n’ont plus que leur capital pour absorber ces risques s’ils se matérialisaient ; or le capital est une ressource rare dont la rétribution est supérieure à celle des réserves. Ne faudrait-il donc pas réintroduire la provision pour égalisation, sous une autre forme, et élargir son champ aux risques émergents ?
Les opinions exprimées dans cet article n’engagent que son auteur.
Mai 2011
1. “A Discussion of Loss Estimates Using S-Curves: Environmental and Mass Tort Liabilities”, by Kirk G. Fleming, FCAS, MAAA, CAS Forum, Summer 2003
Site web : http://www.casact.org/pubs/forum/03sforum/