Interview de Michel Dacorogna, conseiller scientifique auprès du PDG de Scor
Interview
« Pour faire une évaluation holistique des risques, l’ensemble des données doit être de bonne qualité »
l’actuariel : Pourquoi Solvabilité II met-elle particulièrement l’accent sur la qualité des données ?
Michel Dacorogna : Toute évaluation quantitative des risques repose sur des données. Or, si celles-ci ne sont pas de bonne qualité, l’évaluation elle-même sera mauvaise. Il est donc essentiel de disposer de données de qualité, quel que soit le modèle utilisé. Cependant, la « qualité » des données est une notion très générique. Les compagnies d’assurances et de réassurance se sont toujours appuyées sur cette matière première pour travailler, certaines données étant toutefois de qualité moindre. Or, pour faire une évaluation holistique des risques, telle que l’exige le régime prudentiel Solvabilité II, l’ensemble des données doit être de bonne qualité. Au-delà de la question de la qualité intrinsèque des données, l’évolution informatique des dernières années peut également être à l’origine de difficultés puisque les données collectées il y a vingt ans l’ont été au moyen d’outils (ordinateurs et logiciels) différents. Certaines données ont tout simplement été perdues, d’autres sont incomplètes et donc inutilisables…
l’actuariel : Comment faire pour atteindre cette qualité des données ?
M.D. : Il existe plusieurs leviers d’action pour atteindre ou garantir la qualité des données. Tout d’abord, il faut former les personnes qui saisissent les données dans le système et déterminer quelles données sont nécessaires et quelles données ne le sont pas. Il s’agit ensuite de s’assurer auprès des ingénieurs informatiques travaillant sur les bases que les données soient enregistrées harmonieusement sans perte d’information. C’est particulièrement vrai lors du rachat d’une entreprise : l’intégration des données est une opération complexe due à la disparité des systèmes informatiques. Une autre action indispensable consiste à rendre les données accessibles. Cela implique une organisation plus ouverte en termes de communication au sein de l’entreprise. Les différents corps de métier doivent se coordonner : les souscripteurs identifient les données du contrat utiles à la tarification, alors que les actuaires, qui font la tarification, vérifient que l’intégration des données dans le modèle interne génère des résultats en cohérence avec leurs calculs actuariels. Il s’agit en particulier de favoriser les liens entre la comptabilité financière et l’actuariat pour s’assurer de la cohérence des données qui serviront à la fois au bilan économique et au modèle interne. Ce sont des processus lourds, mais les directions générales ont pris conscience de la valeur économique liée à la qualité des données et à la bonne utilisation de ces dernières.
l’actuariel : Comment les actuaires interviennent-ils dans ce processus ?
M.D. : L’actuaire a un rôle fondamental dans l’amélioration de la qualité des données. Pour développer des modèles, l’actuaire a besoin de certaines données qu’il définit tout d’abord de façon conceptuelle via des calculs actuariels. Ensuite, comme je l’ai indiqué auparavant, il contrôle la qualité des données reçues et vérifie que leur intégration dans les modèles donne des résultats cohérents. Ces pratiques ne sont pas nouvelles, d’autant que les outils existent depuis plusieurs années, mais elles relèvent d’une prise de conscience globale. De telles pratiques ont été conduites dans les années 1980 pour les données comptables, contrôlées par les auditeurs. Il s’agit désormais de les étendre à l’ensemble des données liées aux affaires. C’est le rôle d’un Chief Quality Officer. Ce processus ne devrait pas ajouter un niveau de complexité supplémentaire au système, il doit se penser comme un ajustement à l’augmentation de la complexité. Cela doit se faire en développant une organisation souple et ouverte où l’échange d’informations joue un rôle central.