Retour au numéro
Vue 158 fois
06 janvier 2014

Gestion des données :la révolution technologique est lancée

Les innovations technologiques offrent de nouvelles opportunités aux actuaires.

Les innovations technologiques, Big data, analyse prédictive, Machine Learning… offrent de nouvelles opportunités aux actuaires. Mais l’utilisation de modèles mathématiques vers plus de segmentation ne risque-t-elle pas de remettre en cause le principe de la mutualisation cher aux assureurs ?

Afin de développer et paramétrer leurs modèles, les actuaires ont très tôt été amenés à développer des algorithmes complexes capables de traiter d’énormes quantités de données. Mais c’est à la fin des années 1970 que la recherche actuarielle, à l’instar des autres disciplines scientifiques, a fait un véritable bond en avant (notamment) en raison de l’informatisation. Dans un article, publié en décembre 2011 dans le Bulletin français d’actuariat, Martial Phélippé-Guinvarc’h, Philippe Lenca et Antoine Paglia rappellent que « Les trente dernières années ont été marquées par la sophistication des modèles de régression utilisés pour quantifier les risques des compagnies d’assurances ». Ainsi, la régression linéaire simple a été remplacée à partir des années 1980 par les modèles linéaires généralisés (GLM), qui sont encore aujourd’hui largement utilisés, notamment dans l’assurance non-vie. Mais peu à peu, les GLM se sont complexifiés, nécessitant de la part des utilisateurs une technicité de plus en plus grande. Face à ces modèles bien établis et qui ont fait leurs preuves, d’autres méthodes statistiques se sont développées, aidées en cela par le perfectionnement des machines, qui permet d’avoir davantage de puissance de calcul mais aussi par l’explosion des données disponibles, qui offre des opportunités dans les champs de traitement de l’information.

Le Machine Learning encore en marge dans l’assurance

Parmi ces méthodes, l’une des plus connues est le Machine Learning ou apprentissage statistique. Pas totalement nouveau mais encore peu utilisé dans le secteur des assurances, comme le soulignent les auteurs de l’article du BFA : « Les modèles les plus connus de la théorie du Machine Learning sont les réseaux de neurones, les arbres de décision ou encore les support vector machines. Ces méthodes ont été appliquées avec succès dans les domaines de la génétique, de la détection de maladies rares ou de l’écologie pour résoudre des problèmes complexes. Néanmoins, leur utilisation en assurance est moins répandue et/ou confidentielle. » Pour Martial Phélippé-Guinvarc’h, la réticence des actuaires à recourir à ce type de modèle est avant tout culturelle : « Tous les professionnels se sont adaptés aux régressions et les formations ont été basées sur ces modèles. C’est pourquoi, il faudra beaucoup de temps avant une adoption plus large du Machine Learning. » Aux dires de cet expert, un modèle ne remplacera pas l’autre et les deux seront amenés à cohabiter pendant de longues années.[traitement;requete;objet=article#ID=679#TITLE=glossaire]

Cependant, d’autres actuaires poussent à donner dès à présent une plus grande place au Machine Learning. C’est le cas de Jean-Philippe Boisseau et Fabrice Taillieu, qui travaillent pour le cabinet Milliman : « Les techniques d’apprentissage statistique vont pallier certaines limites des méthodes GLM. Le Machine Learning permet d’identifier dans les données les relations complexes et non linéaires entre variables sans avoir besoin de supposer a priori des lois de distribution et d’interactions entre variables, ce qui est assez souvent réalisé de façon subjective et/ou implicite dans la plupart des approches classiques. » Ces techniques donnent par ailleurs la possibilité d’exploiter davantage de données et ainsi d’identifier des effets non capturés jusqu’ici. La mise en œuvre de l’approche consiste à n’utiliser qu’une partie de la base de données pour construire les modèles de prédiction, puis de tester ces derniers sur le reste des données afin d’assurer une mesure objective de la performance de l’algorithme. L’autre avantage du Machine Learning est d’offrir au management des compagnies d’assurances des réponses dans des délais nettement plus courts que dans le passé, ce qui peut représenter un avantage compétitif : « La loi Hamon1 va pousser les compagnies à étudier leur portefeuille de façon très régulière, à prendre les actions nécessaires tout au long de l’année et à suivre en temps réel la bonne adéquation des décisions prises. Le Machine Learning va permettre de répondre à ces nouveaux enjeux », ajoutent Jean-Philippe Boisseau et Fabrice Taillieu.[traitement;requete;objet=article#ID=681#TITLE=Modélisation prédictive]

Détecter des signaux faibles

Si cette problématique technique concerne essentiellement les modèles actuariels, elle interpelle cependant sur un concept plus large et qui fait actuellement fureur, le Big data. À savoir l’avalanche de données numériques résultant de l’utilisation massive d’Internet, associée à la multiplication des appareils connectés. Pourtant, s’ils en parlent (beaucoup), multiplient les colloques et s’interrogent à l’instar du chercheur Serge Abiteboul sur « le Big data comme nouvelle science du risque ? », les professionnels s’emparent à peine du sujet. Contrairement à d’autres secteurs d’activité (médecine, télécoms, distribution…), voire à leurs propres directions marketing et commerciales, qui ont déjà mis en place des projets d’exploitation. Une frilosité que certains experts justifient par le fait « qu’avant d’explorer l’inconnu, il convient de mieux exploiter les données qui dont disponibles. D’autant que des algorithmes existent pour cela ». Or, avec le Big data entrent en considération non seulement les informations provenant des clients et de leurs contrats mais également des données déstructurées et exogènes à l’entreprise (comme par exemple le parcours d’un internaute sur un comparateur d’assurances). Des données qui peuvent recéler énormément de valeur et qui nécessitent pour les traiter un degré de sophistication supérieure à celui des modèles actuariels classiques : « Au-delà des grandes masses, la compréhension de comportements granulaires devient possible par le croisement de données d’origines multiples et variées : des signaux faibles à forte valeur peuvent être ainsi détectés », note Gontran Peubez, actuaire chez Deloitte. Et de s’enthousiasmer sur le fait que « les éléments dans les queues de distribution, si suffisamment plates, peuvent être expliqués. Nous allons passer de l’ère hypothético-déductive, où la logique est de faire entrer des gens dans une loi, à l’inductif ». Ces perspectives ouvrent aussi des opportunités commerciales : « Ce sont de nouveaux gisements pour les assureurs. Par exemple, les données récupérées sur les forums et autres réseaux sociaux vont permettre de mesurer le taux de satisfaction d’une marque », confirme Christophe Geissler, président d’Advestis. Autre changement, de taille : la possibilité d’exploiter les informations d’analyse comportementale issues des concepts du « pay as you drive ». « Jusqu’alors les actuaires disposaient de relativement peu de données, ces dernières étant plutôt limitées à une photographie à un instant t de données majoritairement socio-économiques. Avec le “pay as you drive”, il est possible de disposer de données continues dans le temps, fournissant des informations précises sur le comportement de chaque assuré, et donc sur son risque », souligne Stéphanie Dausque, directrice technique d’Actuaris.[traitement;requete;objet=article#ID=683#TITLE=Cloud computing]

Un défi technique et éthique

Mais les promesses du Big data entraînent aussi un certain nombre d’interrogations qui doivent interpeller les actuaires. D’abord sur leur place en tant que techniciens face à ces nouveaux paradigmes : « L’analyse de flux de données aussi importants demande du temps et des compétences spécifiques. Automatiser au mieux la mise en forme des données, avoir des outils d’analyse puissants et rapides sont les deux conditions pour tirer parti des nouvelles possibilités offertes par le Big data », note Stéphanie Dausque, pour qui les actuaires « vont avoir un rôle encore plus central à jouer, car ils vont devoir garantir l’authenticité et la validité des données ». Quelques voix s’élèvent cependant pour dire que les actuaires ne sont pas totalement prêts à ce changement. « C’est un métier qui jusqu’alors s’est assez peu remis en question. Or, il s’agit d’intégrer une évolution d’envergure dans leur modèle », remarque Gontran Peubez. Pour les professionnels, plus que jamais, il va falloir « maîtriser ces nouveaux modèles et les choisir en fonction de l’application recherchée », précise Christophe Geissler. Ces modèles doivent permettre à l’assureur d’être plus pertinent dans ses offres, telle est l’une des autres promesses du Big data. Mais attention, prévient Gontran Peubez : « Avoir des éléments trop fins ou un trop grand nombre de variables, c’est le risque de se retrouver sur des populations trop faibles en nombre, où la mutualisation n’a plus de sens. Ce n’est plus représentatif sur le plan statistique. L’important est de préserver la mutualisation et il ne faut pas confondre mutualisation et mesure de la probabilité. Avant, nous arrivions à faire de la segmentation sur deux grands profils. Demain, nous le ferons sur dix profils. Mais il y aura partage de la valeur si la mutualisation est préservée. »[traitement;requete;objet=article#ID=685#TITLE=Interview F Picard]

À rebours de la mutualisation…

Reste à savoir comment les clients vont réagir face aux potentialités que recèle le Big data. En effet, dès lors qu’ils accepteront de fournir à leur assureur des données très personnelles (le séquençage de leur génome, par exemple, pour prouver qu’ils n’ont pas de maladie invalidante, lequel coûte aujourd’hui 1 000 dollars contre 3 milliards de dollars en 2003 et 100 dollars en 2018) ou de faire analyser leur comportement de consommateur, ne seront-ils pas en droit d’exiger une offre personnalisée, décorrélée de celle de leurs voisins ? Cette question est centrale car elle interroge sur le principe même de l’assurance basé sur la mutualisation et la solidarité. En individualisant les profils à outrance, voire en faisant du sur-mesure, le risque est grand de perturber le modèle assurantiel au détriment tant des compagnies qui vont voir se multiplier les niches que d’une partie des assurés.

Florence Puybareau

  1. La loi Consommation dite loi Hamon prévoit notamment de rendre possible la résiliation des contrats d’assurance à tout moment.