Retour au numéro
Partager sur :
Vue 464 fois
29 mai 2015

Entretien avec Paul Embrechts

Professeur de mathématiques actuarielles à l’ETH Zurich, il répond aux interrogations du secteur

« Les actuaires doivent davantage s’imposer dans le paysage financier »

Paul Embrechts, Professeur de mathématiques actuarielles ETH Zurich

 

L’actuariel : À la lumière de votre expérience, diriez-vous que les modèles théoriques sont éloignés du monde réel ?

Paul Embrechts : Il s’agit d’un reproche qui est fréquemment adressé aux mathématiciens. Évidemment, tout modèle est une simplification de la réalité. Comme le disait le statisticien britannique George E.P. Box en 1976, « tous les modèles sont faux, certains sont utiles ». Plus précisément, la citation exacte est la suivante : « Étant donné que tous les modèles sont faux, le scientifique ne peut pas en obtenir un bon, même par élaboration excessive. Au contraire, suivant Guillaume d’Occam [théologien et philosophe du xive siècle], on devrait plutôt chercher la description parcimonieuse des phénomènes naturels. De la même manière que la capacité à concevoir des modèles simples mais réalistes est la signature du grand scientifique, la surélaboration et la surparamétrisation sont souvent les marques de la médiocrité. » Je partage tout à fait cette analyse, surtout pour la modélisation du risque opérationnel.

L’actuariel : Que peut-on dire aujourd’hui de la modélisation du risque opérationnel ?  

P. E. : Il convient tout d’abord de prendre conscience que ce type de risque revêt désormais une importance toute particulière pour les banques et les compagnies d’assurances. Par exemple, dans le cas des banques, la proportion du capital réglementaire allouée au risque opérationnel se situe entre 9 et 13 %. Elle a très vite grimpé après la crise de 2008-2009.

Le type de modélisation peut être plus ou moins qualitatif ou quantitatif en fonction du type d’institution et de sa taille. Dans le cas des compagnies d’assurances, sous Solvabilité II (prévu pour le 1er janvier 2016), le montant de capital réglementaire est proportionnel aux provisions dans le cas de l’assurance vie et à l’assiette de primes dans le cas de l’assurance non-vie. En Suisse, le Swiss Solvency Test (SST)* a été mis en place le 1er janvier 2011. Dans ce contexte, le risque opérationnel est plutôt pris en compte via le Swiss Quality Assessment*. Sous Bâle II et III, le montant est calculé de façon différente selon que l’on considère des banques de petite taille ou des banques internationales. Pour ces dernières, le capital réglementaire est issu de modèles quantitatifs souvent (trop ?) complexes. Ce capital doit correspondre à la Value-at-Risk (VaR) à 99,9 % pour un horizon d’un an. Cependant, même si l’on possède une certaine expérience en théorie statistique des valeurs extrêmes, un tel quantile est extrêmement difficile à calculer avec précision, même lorsque l’on dispose de beaucoup de données de bonne qualité. A fortiori dans le cas du risque opérationnel, où les données possèdent une structure très complexe, il est impossible de s’affranchir d’un risque de modèle très élevé. En conséquence, s’appuyer sur une estimation de la VaR à 99,9 % apparaît très discutable. De manière générale, il est important d’éviter la modélisation à outrance.

L’actuariel : Que pensez-vous des relations entre universitaires et professionnels ? Ces deux mondes parviennent-ils à bien communiquer ?

P. E. : Le 7 octobre 1994, avec un collègue, nous avons créé le Risk Lab (département de mathématiques, ETH de Zurich), dont le but était de rassembler chercheurs, professionnels et régulateurs autour des problématiques relatives à la gestion quantitative des risques en finance et en assurance. Notre objectif principal était de mener une recherche précompétitive, c’est-à-dire portant sur des questions pertinentes pour l’ensemble des partenaires et débouchant sur une meilleure compréhension ainsi que des outils concrets pour l’industrie financière. Notre recherche a toujours été initiée par des questions concrètes, notamment dans les domaines des mesures de risque, des valeurs extrêmes et de la dépendance non linéaire (copules). Par ailleurs, elle a toujours impliqué une communication à grande échelle comme l’organisation d’événements annuels tels que le Risk Day. Compte tenu du succès du Risk Lab, plusieurs institutions ont tenté d’imiter sa structure. Une telle structure de collaboration est probablement plus facile dans une ville comme Zurich, où les banques et les compagnies d’assurances sont à quelques pas du Risk Lab.

L’actuariel : La quantification des risques est-elle suffisante pour les risques que doivent affronter les entreprises financières ?

P. E. : Dans le domaine de la quantification des risques, des progrès considérables ont été effectués au cours des dernières décennies. Évidemment, les progrès de l’informatique y sont pour beaucoup. Néanmoins, même dans le cas très classique de l’assurance automobile, par exemple, l’introduction de la télématique offre de nouveaux défis intéressants. Il en va de même avec la potentielle apparition des tests génétiques en assurance maladie. Enfin, la cybercriminalité, qui fait partie du risque opérationnel, devient de plus en plus menaçante.

Pour en revenir à votre question, je pense que les actuaires ne devraient pas se cantonner à l’étude des risques purement quantitatifs mais plutôt avoir une perception globale des risques, y compris de leurs aspects qualitatifs. Par exemple, d’un point de vue pédagogique, il me semble important de comparer la construction des digues en Hollande en réponse aux inondations du 1er février 1953 (je suis né deux jours plus tard près d’Anvers) avec le calcul des capitaux réglementaires pour l’industrie financière : il y a clairement des similarités, comme les mesures de risque, mais également de nombreuses différences. Pour la construction des digues, il faut faire appel à des ingénieurs et à des climatologues. Pour la détermination du capital réglementaire, il convient plutôt de s’entourer d’experts financiers, d’économistes et de comptables. Ces deux cas présentent chacun des challenges spécifiques. Le premier rencontre un problème de non-stationnarité à long terme lié au changement climatique. Dans le second, des arbitrages réglementaires peuvent exister.

Avant toute modélisation de risque, il est important de bien appréhender les conditions nécessaires à l’application des méthodes statistiques ainsi que les limitations de ces dernières. Disposant d’une formation de mathématiciens, les actuaires sont très bien placés pour prendre cette responsabilité.

L’actuariel : Si l’on reprend ce cas, peut-on alors espérer modéliser tous les risques extrêmes ? Grâce au Big Data par exemple ?

P.E. : La théorie des valeurs extrêmes nous fournit des outils de modélisation statistique applicables dans de nombreux domaines. En finance, par exemple, elle nous permet d’aller au-delà des modèles gaussiens. Par ailleurs, elle nous informe de ses limitations. Tout d’abord, il s’agit d’une théorie asymptotique qui ne fonctionne que si l’on possède suffisamment de données. Aussi, les principaux résultats en théorie des valeurs extrêmes ont été obtenus sous des hypothèses fortement simplificatrices. Le Big Data, mettant à disposition un grand nombre de données, peut fournir un cadre d’application pertinent. Cependant, cela dépend vraiment du type de problème : les hypothèses sont-elles suffisamment réalistes ? Enfin, pour ma part, j’estime important que les actuaires trouvent leur place aux confins des statistiques et de cette immensité de données nécessitant un traitement informatique particulier.

L’actuariel : Les modèles que nous avons aujourd’hui auraient-ils pu permettre de prédire ou d’éviter la crise de 2008 ?

P. E. : Des centaines d’articles et des dizaines de livres ont été écrits sur le sujet. La crise des subprimes a fait naître de nombreuses améliorations de la réglementation. D’autres améliorations sont en cours de discussion. Clairement, les points faibles de certains modèles en partie à l’origine de la crise ont été détectés et partiellement éliminés. Cela aurait-il permis d’éviter la crise des subprimes ? Il est très difficile de répondre à cette question car il est impossible de refaire l’histoire. En effet, outre les modèles, un grand nombre de facteurs ont contribué à cette crise. Par exemple, le contexte politique aux États-Unis, la structure interne des banques d’investissement ainsi que l’atmosphère y régnant, le caractère systémique de la finance internationale ainsi que la complexité des produits financiers issus de la titrisation des prêts. Ces produits étaient échangés de gré à gré (OTC) et avaient été évalués « AAA » par les agences de notation !

En 2001, j’ai écrit un article s’intitulant « An academic response to Basel II » avec des collègues économistes de la London School of Economics, que nous avons envoyé au comité de Bâle. Nous y critiquions un certain nombre d’aspects de la réglementation, mettions en garde sur les conséquences néfastes pour l’économie internationale et, pour conclure, recommandions de reconsidérer cette réglementation avant qu’il ne soit trop tard. Malheureusement, cinq ans plus tard, il était trop tard.

L’actuariel : Solvabilité II et Bâle III sont-ils dimensionnés pour répondre aux enjeux que doivent affronter les compagnies d’assurances et les banques ?  

P. E. : La complexité grandissante de la réglementation constitue un point de discorde entre l’industrie et les régulateurs. Je me souviens très bien des discussions intenses relatives à la mise en place du SST. Néanmoins, une réglementation fondée sur des principes plutôt que sur des règles est désormais positivement acceptée par l’industrie. La modélisation conjointe de l’actif et du passif en est un exemple crucial. Évidemment, des discussions sont toujours en cours à propos de la calibration des modèles en fonction de l’environnement économique. Pour ne citer que deux exemples : quel est le taux sans risque et doit-il être fondé sur un swap rate ou sur un taux d’obligation d’Éta ? Et comment agréger les résultats de stress-tests ? Dans les grandes lignes, la direction donnée par Solvabilité II et Bâle III m’apparaît satisfaisante. En effet, à mon avis, une régulation appropriée se doit de trouver le bon équilibre entre les aspects quantitatifs et les aspects qualitatifs. Enfin, à mon sens, les régulateurs doivent toujours être conscients que certains types de régulation peuvent favoriser l’émergence de la finance de l’ombre et de l’assurance de l’ombre.

L’actuariel : Comment les actuaires peuvent-ils se positionner dans ces environnements financiers ?

P. E. : Les actuaires doivent absolument saisir l’opportunité offerte par le contexte actuel. En anglais, je traduirais cela par « They have to take up the gauntlet » et « They have to rise to the occasion » ! En 1996, j’ai donné une conférence à la Wharton School, au cours de laquelle j’ai introduit des techniques actuarielles dans le domaine bancaire. Depuis cette présentation, ce type de méthode est connu sous le nom d’Insurance Analytics. Les actuaires connaissent un grand nombre de techniques de plus en plus utilisées en finance : par exemple, la modélisation des valeurs extrêmes, la théorie des mesures de risque, les modèles non gaussiens, la dépendance non linéaire (les copules), le calcul des prix et des couvertures en marchés incomplets. De ce fait, je considère que les actuaires doivent davantage s’imposer dans le paysage financier. En effet, notre société a de plus en plus besoin de leur avis et de leur expertise. Dans ce contexte, la qualification CERA-ERM va dans la bonne direction.

L’actuariel : Comment amener les entreprises à investir davantage en actuariat ?

P. E. : En Europe continentale, en particulier en France et en Suisse, la formation et la recherche actuarielles sont surtout cantonnées aux universités. Par exemple, à l’ETH de Zurich, celles-ci ont lieu au sein du département de mathématiques. En revanche, dans les pays anglo-saxons, les associations actuarielles professionnelles ont une influence beaucoup plus directe, ce qui explique l’absence de l’actuariat dans de nombreuses universités. L’expérience m’a prouvé que la capacité de communication constitue la clé pour débuter un partenariat réussi entre académiques et professionnels. Néanmoins, je souhaite insister sur le fait que l’établissement d’une telle relation requiert des efforts considérables. Le chercheur doit quitter sa tour d’ivoire, fonder sa recherche en partie sur des questions issues de l’industrie et posséder une vision pluridisciplinaire. Réciproquement, les professionnels se doivent d’apprécier à leur juste valeur les apports de la recherche académique. Comme le montrent les exemples du Risk Lab et du Risk Center à l’ETH de Zurich, de telles collaborations et initiatives multidisciplinaires peuvent être fructueuses.

L’actuariel : Quelles sont les thématiques de recherche à venir ?

P. E. : L’un de mes ouvrages les plus pertinents pour les sciences actuarielles, datant de 1997, est intitulé Modélisation des événements extrêmes pour l’assurance et la finance. J’ai l’intime conviction qu’une meilleure compréhension des événements extrêmes représente l’un des défis scientifiques majeurs du xxie siècle. Cela s’applique par exemple à l’étude du risque de catastrophes naturelles et de leurs conséquences sur les compagnies d’assurances, de réassurance ainsi que les marchés financiers. Du fait de l’augmentation des coûts économiques et assurés associés aux catastrophes naturelles ainsi que des taux d’intérêt bas, le marché des produits de transfert de risque alternatif est en pleine expansion. Néanmoins, je conseille aux régulateurs de bien suivre l’évolution de ce type de marché émergent. Parmi les autres thématiques de recherche importantes à mes yeux, citons l’agrégation de risques, la diversification, l’assurance relative aux risques environnementaux, la prévoyance, la démographie, ainsi que les conséquences pour les compagnies d’assurances des contraintes politiques, notamment en Europe.

L’actuariel : Quelle est la conséquence pour les techniques actuarielles des taux négatifs en Suisse ?

P. E. : Le 18 décembre 2014, la Banque nationale suisse a introduit des taux d’intérêt négatifs. Par ailleurs, l’abolition du cours plancher entre l’euro et le franc suisse du 15 janvier 2015 a créé une situation économique très délicate pour les entreprises suisses. Les conséquences néfastes des taux bas et à plus forte raison négatifs pour les fonds de pension et les compagnies d’assurance vie sont claires. De ce fait, ces compagnies vont rechercher des investissements alternatifs à rendement plus élevé. Cela risque d’engendrer des tensions entre la régulation, qui vise à limiter certains types ou volumes d’investissements, et les compagnies exposées à la réalité économique et politique. Ce problème n’est soluble qu’au travers de discussions multipartites. Un aspect moins étudié concerne l’influence du régime de taux de long terme négatifs sur l’état d’esprit des citoyens (investisseurs, assurés, etc.).

Je terminerai avec une anecdote scientifique. Je n’ai jamais oublié les présentations portant sur le modèle de taux d’intérêt de Vašíček publié en 1977. Ce modèle était critiqué pour sa capacité à générer dans certains cas des taux d’intérêt négatifs. À l’époque, personne n’envisageait des taux négatifs. Pendant longtemps, l’on ne s’est intéressé qu’aux modèles permettant de générer des taux toujours positifs. La réalité actuelle nous invite à revisiter le monde des taux d’intérêt et montre plus généralement à quel point la modélisation mathématique peut être une discipline compliquée qui nécessite un lien très fort avec la réalité.