Mémoire d'actuariat

Analyse de la distribution des risques basée sur l\'expérience
Auteur(s) MELIAND Charles
Société SCOR SE
Année 2017
Confidentiel jusqu'au 17/11/2019

Résumé
Les compagnies d'assurance et de réassurance ont pour activité principale la gestion des risques aléatoires transférés par leurs clients moyennant le versement d'une prime. La capacité à modéliser les différents risques encourus est primordiale pour établir des plans stratégiques et prendre les meilleures décisions sur l'évolution des activités de l'entreprise. Avec la complexification des modèles pour retranscrire toujours plus fidèlement l'évolution des risques sous-jacents, leurs analyses et leurs validations sont d'autant plus importantes. Depuis l'entrée en vigueur de la directive Européenne Solvabilité II le 1er janvier 2016, les assureurs et réassureurs doivent publier le capital requis et disponible afin de démontrer leur solvabilité, mais aussi pour renforcer leur crédibilité au sein des marchés financiers et de leurs clients. La mise en place d'un modèle de calcul de capital réglementaire est devenue un enjeu majeur source de fiabilité de la gestion de l'entreprise. L'adéquation de ce capital aux risques sous-jacents est tout aussi importante que son élaboration. Les modèles utilisés permettent de prédire l'évolution des risques aléatoires portés par la compagnie, en sortie de ces modèles nous obtenons la distribution des risques prévue. Dans ce mémoire, nous cherchons à définir une procédure de validation de cette distribution en confrontant les prévisions du modèle avec la réalité (l'expérience passée) et en nous basant sur l'analyse de quantité type quantile. Ainsi, l'objet central de l'étude est la mise en place d'une méthode de modélisation de l'arrivée des dépassements de seuil (le seuil pouvant être un quantile) par un processus temporel qui exploite l'accumulation de l'information disponible. Le domaine d'étude de cette méthode est étroitement lié aux problèmes de détection de changement de paramètre et de mauvaise calibration de modèle. La problématique de l'étude est de voir à quel point l'accumulation de l'information peut rendre compte de la validité du modèle en utilisant la notion de vraisemblance statistique. La comparaison par rapport aux méthodes préexistantes dans le domaine permettra d'illustrer la pertinence de l'approche.

Abstract
Insurance and reinsurance compagnies' main activities are the management of risks transfered by their customers (called cedents) in exchange for a premium. The capacity to model the different risks they assume is necessary in order to establish strategic plans and make the best decisions in tems of business activities for the company. With the increase of model's complexity to better reflect the evolution of underlying risks, the analyses and validation processes of these models are becoming more and more important. Since the entry into force of the Solvency II directive from January 1st 2016, insurers and reinsurers must publish the required and available capital to demonstrate their solvency but also to strengthen their credibilty with financial markets and their customers. The full implementation of a calculation model for regulatory capital has become one of the major points of attention. The adequacy of this capital model to the underlying risk profile is as important as its development. These models aim at predicting the evolution of random risks insured by the company, as a result we get the expected probability distribution of risks. In this paper, we aim to developing a backtesting approach for this distribution by comparing model predictions with the reality (historical data) based on the analysis of risk measures such as quantiles. The main focus of this presentation is the implementation of a method considering the cumulative number of threshold exceedances as a temporal process which takes advantage of all available information. This study is closely linked to quickest detection problem and model misspecification. This paper tries to assess how much the accumulation of information can reflect the acceptability of the model using the statistic likehood. A comparison with preexisting methods from this field of research will be used to illustrate to appropriateness of the approach.