Retour au numéro
Vue 501 fois
16 décembre 2016

Les dessous de l’assurance comportementale

Les compagnies d'assurances sont tentées de s'intéresser de plus près à leurs assurés avec le Big Data et les objets conenectés.

Profitant du développement conjoint des objets connectés et des technologies de Big Data, les compagnies d’assurances s’intéressent de près au comportement de leurs assurés. De nouvelles variables leur permettent d’apprécier plus finement le risque. Mais cette évolution pose des questions techniques, éthiques et stratégiques qui imposent à chaque acteur de se positionner.

Le programme Vitality lancé en France en ce début d’année 2017 par Generali a fait couler beaucoup d’encre. Le produit d’assurance récompense sous forme de cartes cadeaux et de bons de réduction les salariés adhérents qui atteignent des objectifs personnalisés en matière de sport, d’alimentation, de tabac, etc. S’agit-il d’une étape majeure en France, quant à l’émergence d’une assurance comportementale dont les tarifs dépendront en partie des habitudes de vie du client et pourront donc être revus à la hausse ou à la baisse en fonction de celles-ci ? Cette tendance s’appuie sur le développement du Big Data et les possibilités offertes par toute une panoplie d’objets connectés : bracelets, patchs ou chaussures intelligentes, boîtiers pour automobiles et autres capteurs pour la maison.

Pour l’heure, c’est dans l’assurance auto que l’assurance comportementale progresse le plus vite. En France, trois assureurs ont lancé depuis 2014 des offres « pay how you drive » assorties de boîtiers connectés : Direct Assurance (Axa) avec YouDrive, Amaguiz (Groupama) avec Road Coach et Allianz avec Conduite connectée.

L’idée de tarifer en fonction du comportement n’est pas si neuve qu’elle le paraît. L’assurance auto la pratique déjà avec le bonus-malus, qui récompense l’absence de sinistre responsable. En outre, les smartphones et les objets connectés peuvent fournir des données très nombreuses, en continu et de manière automatisée. De fait, ils permettent aux assureurs de segmenter plus finement leurs clients en fonction de leur profil de risque.

De nouvelles variables voient ainsi le jour : en auto, les assureurs s’intéressent au nombre de kilomètres parcourus, à la longueur moyenne des trajets, aux heures d’utilisation du véhicule (jour/nuit), au type de routes empruntées (nationale/autoroute), à l’intensité des accélérations et des freinages… Ils ne sont toutefois pas habilités à constater les infractions telles que les dépassements de vitesse1.

Évidemment, la fiabilité des données recueillies est un prérequis au bon fonctionnement du dispositif. Or elle dépend largement de la technologie embarquée. Selon qu’il est branché au port OBD2 du véhicule, à la batterie ou monté sur châssis, le boîtier connecté est plus ou moins facile à manipuler. « Si le client peut éteindre le dispositif quand cela l’arrange, les données sont faussées », prévient Fabrice Taillieu, actuaire certifié IA et associé chez Milliman France. À cause de ce type de fraude, il y aurait 20 à 50 % de « faux positifs » dans le « pay how you drive », d’après un article publié fin septembre sur le site NewsAssurancesPro.

[traitement;requete;objet=article#ID=1281#TITLE=Olivier Claeys, actuaire certifié IA, responsable de l’actuariat chez Groupama Italie]

La collecte des informations au fil de l’eau

Pour ce qui est du traitement des données, une révolution attend les actuaires et les data scientists. « Auparavant on collectait les données en une seule fois, au moment de la souscription. On faisait ensuite “vieillir” les données et on mettait à jour en conséquence notre estimation du coût du risque. On ne recueillait de nouvelles informations qu’en cas de sinistre ou de changement de véhicule. À présent, on va collecter des données au fil de l’eau, et c’est cela qui va permettre de déterminer les profils comportementaux », décrit Stephan Fangue, actuaire associé IA et directeur en charge des données chez Generali.

Ces data d’un nouveau genre, pour la plupart non structurées, doivent être retraitées et combinées de manière pertinente par les actuaires. « Le “feature engineering”, le travail de transformation de la donnée visant à améliorer le pouvoir de prédiction des algorithmes, constitue une étape cruciale, décrypte Stephan Fangue. Les actuaires et les data scientists vont nettoyer, analyser, agréger les informations… et mettre de côté celles qui alourdiront inutilement le modèle. » Certaines variables ont déjà prouvé leur important pouvoir d’explication, à l’instar de la distance parcourue dans l’année3. « Le taux de sinistres est fortement corrélé au kilométrage, bien que cette relation ne soit ni monotone, ni linéaire », explique ainsi Alexandre Mornet, actuaire associé IA, dans sa thèse de doctorat en actuariat4.

La collecte, le stockage et le traitement de la datamasse (Big Data) provenant des objets connectés requiert des investissements informatiques considérables. « On parle ici de teraoctets de données. Les études de tarification, qui ne peuvent se faire aujourd’hui qu’une fois par an, devront se faire quasiment en continu. On ne pourra pas se permettre d’attendre une semaine pour faire tourner les calculs. L’enjeu est de paralléliser ceux-ci grâce à une architecture logicielle adéquate et à des serveurs haute performance », diagnostique Stéphanie Dausque, actuaire certifiée IA et associée chez Addactis Software. « Il faut plusieurs années pour construire la plateforme et obtenir la bonne disponibilité des données. Cela représente 80 % de l’effort à fournir, les 20 % restants correspondant à la modélisation », complète Olivier Claeys, responsable de l’actuariat chez Groupama Italie.

Vers une transformation des modèles ?

Les nouvelles données et variables bouleversent le service client, la gestion des sinistres, la compréhension du risque et la tarification. Mais, pour l’heure, la prise en compte des informations comportementales reste parcellaire dans les modèles. « Grâce aux statistiques issues des objets connectés, l’assureur peut identifier qu’il est un peu trop prudent sur la prime de risque d’une population donnée, ce qui peut éventuellement le pousser à proposer une réduction. Ces nouvelles données ne sont pas totalement intégrées au modèle, elles alimentent une stratégie de discount », explique Stephan Fangue. Si une compagnie se place dans une logique de conquête d’une cible spécifique, elle peut aller plus loin et proposer des tarifs plus agressifs que ses concurrentes.

Et demain ? Les actuaires ne vont pas faire table rase et repartir sur de nouveaux modèles, mais opérer une transition en douceur en ajoutant progressivement de nouvelles variables et données. « Les modèles actuels présentent l’avantage d’être robustes : ils fournissent des résultats stables dans le temps et on est capable d’expliquer les variations. On ne peut pas prendre le risque de les remettre en cause totalement du jour au lendemain », estime Stephan Fangue. Avant d’insérer une nouvelle variable, une analyse exploratoire poussée est nécessaire pour vérifier sa pertinence. Par exemple, il faudra s’assurer que l’intensité des coups d’accélération et de frein augmente bien le risque – après tout, un conducteur peut être nerveux mais prudent. En outre, il faudra étudier attentivement la force d’explication des nouvelles variables avant de déterminer leur pondération à l’intérieur des modèles.

L’enjeu du « machine learning »

Pour opérer cette transition, actuaires et data scientists tirent parti des algorithmes d’apprentissage statistique, qui apprennent à partir des données. « Grâce au “machine learning”, les actuaires et les data scientists vont exploiter des bases de plusieurs millions de lignes et faire parler les données, avec un objectif : améliorer sans cesse la prédiction du risque de sinistralité, en termes de fréquence et de coût », explique Fabrice Taillieu. Théoriquement, les assureurs pourront même découvrir des corrélations sans les avoir anticipées. « Mais il ne suffit pas de savoir comment fonctionne tel ou tel algorithme. La connaissance du marché de l’assurance dont dispose l’actuaire est indispensable pour comprendre les résultats des algorithmes et choisir le meilleur modèle en fonction de la problématique posée », renchérit-il.

La mise en œuvre d’une segmentation de plus en plus sophistiquée laisse présager une individualisation des tarifs. Cette perspective demeure toutefois lointaine. « Aujourd’hui, on manipule une quarantaine de variables tarifaires dans l’assurance auto. On a fait un pas de plus vers une personnalisation des primes, mais on est encore très loin d’un tarif individualisé », tempère Olivier Claeys.

Il n’empêche. Aux États-Unis, où les contraintes réglementaires sont moins lourdes qu’en France, l’e-assureur Oscar élabore des primes sur mesure pour l’assurance santé à partir de son analyse du mode de vie du souscripteur. Les clients portent aujourd’hui un bracelet connecté, et s’équiperont demain de capteurs de sommeil, de tensiomètres et autres puces sous-cutanées.

[traitement;requete;objet=article#ID=1283#TITLE=La question sensible des données]

Les limites de l’individualisation

De là à conclure qu’on aura un jour un tarif par assuré ? Fabrice Taillieu n’y croit pas. « La segmentation va s’améliorer, mais toujours dans une optique de mutualisation », estime l’expert, rappelant au passage que, dans l’Hexagone, l’ACPR s’oppose fermement à l’individualisation. « Statistiquement, une personnalisation du tarif ne fait pas de sens. Un modèle pertinent doit reposer sur des populations homogènes de taille suffisante », renchérit Stephan Fangue. En clair : les assureurs ont intérêt à utiliser un nombre restreint de tarifs pour que leurs modèles demeurent robustes. « Si l’on crée des segments de plus en plus fins, la convergence à l’intérieur de chaque segment, c’est-à-dire la rapidité avec laquelle la loi des grands nombres s’applique, diminue », abonde Gontran Peubez, actuaire certifié IA et directeur chez Deloitte Consulting.

Si l’on pousse le raisonnement à l’extrême, un assureur pourrait délibérément choisir de se concentrer sur une population restreinte, censée être plus sûre (par exemple les parents âgés de 35 à 45 ans) et lui proposer des primes attractives. « Mais avec un échantillon étroit, la volatilité est tellement élevée que l’équation économique devient intenable », avertit Stephan Fangue.

Des choix éminemment stratégiques

Plus largement, la question appelle les dirigeants des compagnies à des choix stratégiques déterminants. S’il est désormais évident que le Big Data impose aujourd’hui des changements aussi profonds que ceux impliqués hier par l’informatisation, l’assurance comportementale doit servir une vision. Car, de fait, ce n’est pas une martingale dans le contexte hyperconcurrentiel actuel. Appliquée à l’ensemble de la population et des risques, la segmentation ne permet pas de résoudre l’équation volatilité, développement, résultat. Il faut dès lors déterminer l’objectif : stratégie de niche, sélection des risques, développement des bons clients grâce à un tarif ajusté sur un contrat pour mieux leur en vendre d’autres…

L’avènement de l’assurance comportementale pose enfin et surtout de lourdes questions éthiques. « Pour l’instant, on récompense les comportements vertueux. Mais, à terme, on pénalisera les mauvais », alerte Stéphanie Dausque. S’ils se mettent à pratiquer le yield management, les assureurs risquent d’exclure toute une frange de la population : les jeunes conducteurs, les personnes en mauvaise santé… « Justement ceux qui ont le plus besoin d’assurance et de solidarité », pointe Gontran Peubez.

 

 

1. Article 9 de la directive sur la protection des données.

2. Connecteur situé généralement près du volant, sur lequel se branchent les garagistes pour faire un diagnostic.

3. « The Use of Annual Mileage As a Rating Variable », Jean Lemaire, Sojung Park et Kili Wang.

4. « Contributions à l’évaluation des risques en assurance tempête et automobile », Alexandre Mornet, 2015. Pour en savoir plus : https://lc.cx/oYzH