Retour au numéro
Vue 4976 fois
18 décembre 2015
Solvabilité II. La qualité des données, un chantier crucial
Comment les assureurs peuvent-ils répondre aux attentes de Solvabilité II
« Produire des données de qualité garantit un reflet fidèle des engagements des assureurs », martèle l’ACPR, qui depuis quelques mois insiste beaucoup sur ce sujet. Et pour cause, « dans un premier temps, la plupart des acteurs se sont focalisés sur le calcul des exigences de capital dans le cadre du pilier 1 de Solvabilité II sans regarder forcément les exigences en termes de qualité des données. Au cours des dernières années de préparation et avec la publication des actes délégués, les superviseurs ont mis l’emphase sur le sujet », souligne Claude Chassain, actuaire certifiée IA, responsable Actuariat secteur assurance et Solvabilité II chez Deloitte. Un sujet qui était peu abordé par les compagnies : « Elles considéraient que les provisions étant auditées, il n’y avait pas de problème. Mais après les différents QIS, elles ont pris encore plus conscience de l’importance d’avoir des résultats validés de manière formelle et de disposer de données de qualité pour réaliser ces calculs », précise la consultante. [traitement;requete;objet=article#ID=1133#TITLE=Des normes actuarielles au service de la qualité des données ]
Aujourd’hui, Bruno Longet, directeur des contrôles spécialisés et transversaux de l’ACPR, insiste aussi sur la nécessité pour les assureurs de s’emparer du sujet : « Les contrôles réalisés par l’ACPR dans ce domaine mettent en évidence qu’il existe encore des marges d’amélioration. Une faible majorité d’organismes déclarent disposer d’un système de gouvernance des données. Les efforts devront donc être poursuivis, l’entrée en vigueur de la nouvelle réglementation le 1er janvier n’étant pas “ la fin de l’histoire ”. »
Si la directive et les superviseurs accordent autant d’importance à la qualité des données, c’est que le sujet n’a pas toujours compté parmi les priorités des entreprises : « Les compagnies d’assurances ont souvent des systèmes d’information en silo qui ne communiquent pas entre eux. Des systèmes qui se sont complexifiés au fur et à mesure que les entreprises évoluaient, grandissaient, fusionnaient… Quand il y a un rapprochement, elles essayent de consolider au plus vite en oubliant parfois la qualité des données », remarque Laurence Al Neimi. Et le superviseur de rappeler que la non-qualité des données « entraîne des coûts supplémentaires et peut être source de risques opérationnels sur les systèmes d’information ». Sans compter la nécessité de disposer de données de qualité si l’entreprise veut répondre aux nouveaux enjeux et risques technologiques que sont le Big Data, le cloud computing et les cyber-risques.[traitement;requete;objet=article#ID=1135#TITLE=L’importance de la sélection des variables ]
Ces difficultés sont d’autant plus fortes que le projet se veut transverse. Souvent, il existe historiquement des problèmes liés à la qualité des données, ce qui peut faire remonter des dissensions. En tout cas, pour Frank Boukobza, associé chez Actuelia et actuaire certifié IA, « tout le monde doit se mettre autour de la table. Les actuaires, les comptables, l’IT, le contrôle interne, qui souvent est responsable du suivi de la qualité des données… Car, dans un premier temps, il faut se demander quelles données vont être traitées et ensuite comment elles vont l’être. Ce qui requiert un consensus ». Certaines entreprises, à l’instar de Scor, nomment un Chief Data Officer voire même un Chief Quality Officer en charge de la chaîne de qualification des données.
Et, sur le terrain, quid des actuaires au-delà des impératifs que la directive impose à la fonction actuarielle ? Consommateurs de données, les actuaires ont impérativement besoin d’un matériau de qualité pour alimenter leurs modèles et réaliser leurs calculs. Dans les travaux réalisés pour démontrer la qualité des données, ils vont préciser quelles sont les données importantes qui ont un impact significatif sur les chiffres clés. Mais ils peuvent également être prescripteurs de contrôles. Ils sont de toute façon associés très en amont dans cette démarche qualité qui se déroule en plusieurs étapes. Le régulateur préconise la mise en place d’un dictionnaire (ou répertoire des données) compilant toutes les données utilisées avec, pour chacune d’elles, cinq informations clés : la source, ses caractéristiques, son usage, la façon dont elle a été extraite et la façon dont elle va être utilisée. « Le dictionnaire va permettre de répertorier l’ensemble des informations qui vont être utilisées. Mais ensuite il faut s’interroger pour savoir qui alimente les calculs, qui intervient sur ces données, qui les manipule… Puis, sur le type de contrôles : existent-ils ? Sont-ils opérants ? Conduisent-ils à faire des reportings ? », détaille Frank Boukobza. Un travail très lourd, long et coûteux pour les compagnies, qui nécessite d’avoir un langage commun et a généralement une implication technologique forte, et qui oblige parfois à repenser l’architecture et l’urbanisation des systèmes d’information.[traitement;requete;objet=article#ID=1137#TITLE=La DSI en support des métiers]
Malgré ces difficultés, les entreprises sont de toute façon obligées de mener ce chantier d’envergure. « Même si elles ne sont pas totalement prêtes en janvier, les compagnies, quelle que soit leur taille, doivent être au minimum en mesure de produire un plan d’action détaillé », souligne Éric Lecœur, actuaire certifié IA et directeur de l’Actuariat Groupe de Scor. Car, à terme, un niveau insuffisant de données pourra en effet entraîner des réserves quant à l’approbation du modèle interne voire le recours à des sanctions financières à travers la constitution d’un capital add-on. [traitement;requete;objet=article#ID=1139#TITLE=Michel Dacorogna, conseiller scientifique auprès du PDG de Scor ]
La nouvelle directive amène les assureurs à garantir l’exactitude des données utilisées pour la construction de leurs modèles. Des processus longs et complexes qui doivent impliquer jusqu’à la direction générale.
Solvabilité II, dont la mise en application démarre en ce mois de janvier 2016, a obligé tous les assureurs à modifier en profondeur leurs processus de remontée et de contrôle des informations. La directive insiste particulièrement sur la qualité des données. Ainsi, l’article 82 stipule que « les États membres veillent à ce que les entreprises d’assurances et de réassurance mettent en place des processus et procédures internes de nature à garantir le caractère approprié, l’exhaustivité et l’exactitude des données utilisées dans le calcul de leurs provisions techniques ». Quant à la fonction actuarielle (article 48), elle est chargée « d’apprécier la suffisance et la qualité des données utilisées dans le calcul des provisions techniques ». La qualité des données est également abordée dans plusieurs articles du règlement délégué adopté en janvier 2015. Les textes précisent aussi les trois critères permettant de juger de la qualité des données. Celles-ci doivent en effet être exhaustives (avec une profondeur d’historique suffisante pour apprécier les risques sous-jacents), exactes (une donnée doit être cohérente dans le temps et rafraîchie régulièrement) et pertinentes (les données doivent être adaptées aux besoins de leurs utilisations). Ces mentions de la directive n’ont rien d’anodin car, si depuis toujours les assureurs disposent d’un volume considérable de données (techniques, financières, commerciales…), il leur est beaucoup plus difficile d’en garantir l’intégrité et la rigueur. « La donnée, c’est la matière première de l’assureur. Et la qualité est indispensable pour leur activité de reporting et de calculs actuariels… Plus la qualité des données est bonne, moins il y aura d’erreurs dans les signaux faibles, dans les sous-jacents », rappelle Laurence Al Neimi, manager chez Solucom, spécialiste de l’assurance au sein de la practice Business & IT Transformation. « Nous touchons là au cœur de l’activité des compagnies d’assurances. Dans un environnement économico-financier sinistré, il est impensable que les données de l’assureur ne soient pas à la hauteur des attentes. Une défaillance sur ce volet-là pourra avoir des conséquences très importantes. Au-delà du seul suivi des exigences réglementaires, il s’agit d’embarquer toute l’entreprise sur ce sujet de fond pour anticiper plutôt que subir. De meilleures données vont nous aider à mieux connaître nos clients et à anticiper les dérapages », explique un assureur du marché.« Produire des données de qualité garantit un reflet fidèle des engagements des assureurs », martèle l’ACPR, qui depuis quelques mois insiste beaucoup sur ce sujet. Et pour cause, « dans un premier temps, la plupart des acteurs se sont focalisés sur le calcul des exigences de capital dans le cadre du pilier 1 de Solvabilité II sans regarder forcément les exigences en termes de qualité des données. Au cours des dernières années de préparation et avec la publication des actes délégués, les superviseurs ont mis l’emphase sur le sujet », souligne Claude Chassain, actuaire certifiée IA, responsable Actuariat secteur assurance et Solvabilité II chez Deloitte. Un sujet qui était peu abordé par les compagnies : « Elles considéraient que les provisions étant auditées, il n’y avait pas de problème. Mais après les différents QIS, elles ont pris encore plus conscience de l’importance d’avoir des résultats validés de manière formelle et de disposer de données de qualité pour réaliser ces calculs », précise la consultante. [traitement;requete;objet=article#ID=1133#TITLE=Des normes actuarielles au service de la qualité des données ]
L’ACPR surveille de près l’avancée des travaux
L’ACPR a tiré la sonnette d’alarme lors de la restitution, en juin 2015, de la dernière enquête sur la préparation des compagnies à Solvabilité II. Une publication qui montre une situation en demi-teinte en matière de qualité des données. 58 % des entreprises ont mis en place un système de gouvernance des données (elles étaient 54 % en 2014) et seulement 38 % ont une politique formalisée autour de cette pratique (29 % en 2014). Le commentaire du régulateur était alors assez sévère : « Il y a une intégration trop faible à la gouvernance d’ensemble et une sensibilisation insuffisante. Les indicateurs ne correspondent pas aux besoins ou manquent de hauteur de vue. » Et d’observer une « confusion des indicateurs opérationnels et décisionnels ». Avant de conclure : « C’est une préoccupation qui doit impérativement se poursuivre au-delà du 1er janvier 2016. »Aujourd’hui, Bruno Longet, directeur des contrôles spécialisés et transversaux de l’ACPR, insiste aussi sur la nécessité pour les assureurs de s’emparer du sujet : « Les contrôles réalisés par l’ACPR dans ce domaine mettent en évidence qu’il existe encore des marges d’amélioration. Une faible majorité d’organismes déclarent disposer d’un système de gouvernance des données. Les efforts devront donc être poursuivis, l’entrée en vigueur de la nouvelle réglementation le 1er janvier n’étant pas “ la fin de l’histoire ”. »
Si la directive et les superviseurs accordent autant d’importance à la qualité des données, c’est que le sujet n’a pas toujours compté parmi les priorités des entreprises : « Les compagnies d’assurances ont souvent des systèmes d’information en silo qui ne communiquent pas entre eux. Des systèmes qui se sont complexifiés au fur et à mesure que les entreprises évoluaient, grandissaient, fusionnaient… Quand il y a un rapprochement, elles essayent de consolider au plus vite en oubliant parfois la qualité des données », remarque Laurence Al Neimi. Et le superviseur de rappeler que la non-qualité des données « entraîne des coûts supplémentaires et peut être source de risques opérationnels sur les systèmes d’information ». Sans compter la nécessité de disposer de données de qualité si l’entreprise veut répondre aux nouveaux enjeux et risques technologiques que sont le Big Data, le cloud computing et les cyber-risques.[traitement;requete;objet=article#ID=1135#TITLE=L’importance de la sélection des variables ]
Un chantier transversal mené par la direction générale
Tous les experts sont formels, le travail sur la qualité des données ne peut se faire sans une implication forte de la direction générale : « Comme pour tous les projets importants de l’entreprise, l’impulsion se doit d’être donnée au plus haut niveau », souligne l’étude PwC1. Bruno Longet insiste également sur l’implication des dirigeants de compagnie dans les processus de qualification : « L’ACPR est très vigilante sur la qualité des données dont disposent les organismes, comme la nouvelle réglementation l’exige. Là aussi, une forte implication des organes dirigeants est indispensable. La gouvernance de la qualité des données doit reposer sur une organisation et sur un pilotage validés et appropriés par les organes dirigeants. Nous ne sous-estimons pas les difficultés liées notamment aux nombreuses opérations de restructuration du secteur. »Ces difficultés sont d’autant plus fortes que le projet se veut transverse. Souvent, il existe historiquement des problèmes liés à la qualité des données, ce qui peut faire remonter des dissensions. En tout cas, pour Frank Boukobza, associé chez Actuelia et actuaire certifié IA, « tout le monde doit se mettre autour de la table. Les actuaires, les comptables, l’IT, le contrôle interne, qui souvent est responsable du suivi de la qualité des données… Car, dans un premier temps, il faut se demander quelles données vont être traitées et ensuite comment elles vont l’être. Ce qui requiert un consensus ». Certaines entreprises, à l’instar de Scor, nomment un Chief Data Officer voire même un Chief Quality Officer en charge de la chaîne de qualification des données.
Et, sur le terrain, quid des actuaires au-delà des impératifs que la directive impose à la fonction actuarielle ? Consommateurs de données, les actuaires ont impérativement besoin d’un matériau de qualité pour alimenter leurs modèles et réaliser leurs calculs. Dans les travaux réalisés pour démontrer la qualité des données, ils vont préciser quelles sont les données importantes qui ont un impact significatif sur les chiffres clés. Mais ils peuvent également être prescripteurs de contrôles. Ils sont de toute façon associés très en amont dans cette démarche qualité qui se déroule en plusieurs étapes. Le régulateur préconise la mise en place d’un dictionnaire (ou répertoire des données) compilant toutes les données utilisées avec, pour chacune d’elles, cinq informations clés : la source, ses caractéristiques, son usage, la façon dont elle a été extraite et la façon dont elle va être utilisée. « Le dictionnaire va permettre de répertorier l’ensemble des informations qui vont être utilisées. Mais ensuite il faut s’interroger pour savoir qui alimente les calculs, qui intervient sur ces données, qui les manipule… Puis, sur le type de contrôles : existent-ils ? Sont-ils opérants ? Conduisent-ils à faire des reportings ? », détaille Frank Boukobza. Un travail très lourd, long et coûteux pour les compagnies, qui nécessite d’avoir un langage commun et a généralement une implication technologique forte, et qui oblige parfois à repenser l’architecture et l’urbanisation des systèmes d’information.[traitement;requete;objet=article#ID=1137#TITLE=La DSI en support des métiers]
Malgré ces difficultés, les entreprises sont de toute façon obligées de mener ce chantier d’envergure. « Même si elles ne sont pas totalement prêtes en janvier, les compagnies, quelle que soit leur taille, doivent être au minimum en mesure de produire un plan d’action détaillé », souligne Éric Lecœur, actuaire certifié IA et directeur de l’Actuariat Groupe de Scor. Car, à terme, un niveau insuffisant de données pourra en effet entraîner des réserves quant à l’approbation du modèle interne voire le recours à des sanctions financières à travers la constitution d’un capital add-on. [traitement;requete;objet=article#ID=1139#TITLE=Michel Dacorogna, conseiller scientifique auprès du PDG de Scor ]