Mémoire d'actuariat

Modélisation de la garantie incendie multirisques habitation, méhode paramétrique vs méthodes non-paramétriques
Auteur(s) TINKEU NGATCHOU Jonathan
Société Generali
Année 2017
Confidentiel jusqu'au 29/06/2019

Résumé
Le marché concurrentiel de l'assurance Iard oblige les assureurs à rechercher en permanence le "juste prix". En effet, déterminer la meilleure segmentation possible du portefeuille est un enjeu majeur pour les compagnies d'assurance. La question sous-jacente qui se pose est de savoir quel est le modèle le plus approprié aux données dont la compagnie dispose ? C'est dans ce contexte que s'opposent deux écoles : L'une basée sur les modèles probabilistes de statistique et d'économétrie qui va supposer que l'observé (fréquence de sinistre et/ou coût de sinistre) est une réalisation de variables aléatoires afin de pouvoir appliquer des GLM, des régressions logistiques, etc... C'est l'approche classique de l'actuariat. L'autre école, un peu plus récente est orientée autour des algorithmes numériques (CART, Forêts aléatoires, XGBoost...) qui vont apprendre des données c'est-à-dire qui vont permettre à un système d'adapter ses comportements en se fondant uniquement sur l'analyse de données provenant d'une base de données. Cette approche, moins conventionnelle, nous permet également de faire de la prédiction.

Abstract
The competitive market of property and casualty insurance forces insurers to continuously search for the \"fair price\". Indeed, defining the best possible portfolio segmentation is a major issue for insurance companies. The underlying question which arises from this is to know which model is the most suitable for the data a company owns. In this context, two schools oppose each other: One, based on probability models in statistics and econometrics, which assumes that the observed (frequency of a claim and/or cost of a claim) is an occurrence of rencom variables in order to be able to apply GLMs logistic regressions, etc... This is the classical approach of actuarial science. The other school, more recent, revolves around numerical algorithms (CART, Random Forest, XGBoost...) that will learn data, that is, enable a system to adapt its behaviour based only on the data analysis provided by a database. This less conventional approach also allows us to make predictions.