Retour au numéro
Partager sur :
Vue 841 fois
14 juin 2011

Comment modéliser les risques émergents ?

Cybercriminalité, nanotechnologies, changement climatique, terrorisme chimique : les risques émergents sont de nature et d’ampleur diverses.

Cybercriminalité, nanotechnologies, changement climatique, terrorisme chimique : les risques émergents sont de nature et d’ampleur très diverses. Si le manque de données statistiques rend leur modélisation difficile, il est pourtant nécessaire d’évaluer leur impact. Quitte à sortir des techniques actuarielles classiques.

Parler de modélisation des risques émergents est, par nature, antinomique : « Il s’agit de risques sur lesquels nous n’avons, par définition, pas de données statistiques de sinistres, et qui peuvent de surcroît évoluer de façon importante », explique Florence Thévenot, chargée de mission Risques émergents chez Axa. « Le principe même d’un risque émergent est de ne pas être modélisable avec les techniques actuarielles classiques », ajoute Philippe Béraud, directeur adjoint de l’audit interne du groupe Scor.


 

Cependant, il faut bien trouver une solution : « Les assureurs et, plus encore, les réassureurs ont compris qu’ils ne peuvent plus se contenter de quantifier le connu, poursuit Philippe Béraud. Il doivent aussi tenter de quantifier l’inconnu. » Car « un assureur s’engage pour les cinquante années à venir, ajoute Florence Thévenot. Il doit être capable de se projeter dans le long terme ».

Identifier les risques émergents et les évaluer

Comment procéder face à des risques aussi difficiles à appréhender que les nanotechnologies, les OGM, la cybercriminalité, les armes de destruction massive, les ondes électromagnétiques, le changement climatique, etc. ? Pour avoir une idée du défi que représente la modélisation des risques émergents, prenons le cas des nanotechnologies : « Elles se diffusent très rapidement dans l’industrie alors que leurs effets sur la santé restent inconnus et que la réglementation n’est pas figée », observe Florence Thévenot. Inutile de dire que les techniques actuarielles classiques de modélisation des risques sont inopérantes. Dans les années 1990, le cas de l’asbestose (fibrose pulmonaire due à l’amiante) en a apporté la preuve : « Toutes les prévisions se sont révélées complètement fausses !, se souvient Éric Lecœur, directeur de l’actuariat groupe de Scor. Cette expérience nous a servi de leçon… » (lire sa tribune).

D’abord, il faut « éviter de céder à la culture ambiante du catastrophisme, plaide Éric Lecœur. Si l’on se fie à certains scénarios, la fin du monde est pour demain ! Le but n’est pas de se faire peur, mais d’identifier les risques émergents et de les évaluer ».  Les évaluer et non nécessairement les modéliser : la nuance est de taille, car, face à l’impossibilité de recourir aux techniques classiques, cet actuaire considère que la profession doit oser sortir des sentiers battus : « Dans certains pays, les préconisations des instituts locaux, très strictes, inhibent la capacité des actuaires à prendre des risques de modèle. Or c’est ce que nos directions générales attendent de nous. » À défaut de pouvoir provisionner les sinistres non survenus, les assureurs font actuellement peser les risques émergents sur leurs fonds propres. À la veille de l’entrée en vigueur de Solvabilité II, c’est particulièrement dommage…

Troquer la loi log-normale contre la loi de Pareto

Professeur à l’université Pierre-et-Marie-Curie, Paul Deheuvels considère qu’à l’instar des risques classiques les risques incontrôlés sont, eux aussi, prévisibles (lire son interview). À condition de troquer la loi log-normale, chère aux actuaires, contre la loi de Pareto. Et de faire preuve de courage pour imposer des prévisions qui peuvent être déstabilisantes. Pour illustrer son propos, Paul Deheuvels fait référence à son expérience de consultant auprès du groupe Total. « Au milieu des années 1970, le groupe pétrolier, qui souhaitait construire des plates-formes en mer du Nord, m’a demandé d’évaluer le niveau de la vague dite “centenaire”, c’est-à-dire la plus haute envisageable. Après six mois d’enregistrements précis, nous n’avons jamais observé de vague de plus de 7 mètres de haut. En me basant sur la loi de Pareto, j’ai toutefois calculé que, dans les vingt années à venir, la plate-forme pouvait être confrontée à des vagues de 18,50 mètres. Inutile de dire que cette prévision a jeté la consternation chez les dirigeants de Total, qui m’ont convoqué immédiatement pour que je me justifie. Étant consultant indépendant, j’ai pu tenir bon. Considérant qu’une plate-forme coûte plusieurs centaines de millions de dollars, le groupe pétrolier a eu la prévoyance de se ranger à mon point de vue en plaçant le tablier de la plate-forme 20 mètres au-dessus du niveau de la mer. Vingt ans plus tard, j’ai eu l’occasion de visionner la vidéo d’une vague de précisément 18,50 mètres, qui avait déferlé dans la région. Total a alors relevé le tablier de sa plate-forme de 5 mètres, à 25 mètres au-dessus du niveau de la mer. » Paul Deheuvels n’a pas lu dans le marc de café : ses prévisions reposaient sur des calculs précis, « dans lesquels l’expérience des sinistres passés compte autant que l’analyse purement statistique », ajoute toutefois le mathématicien, qui estime que « la loi de Pareto est particulièrement difficile à appréhender ». Résultat : les industriels ont fâcheusement tendance à céder à leur pente naturelle, qui est de ne pas vouloir voir les vrais risques, « en espérant ne plus être à leur poste le jour où ce risque se produira » !

 

Comparaison des queues de distributions log-normale et Pareto 

p38_modelisation_455

Les distributions de type Pareto accordent une plus forte probabilité d’occurrence aux événements extrêmes que les lois usuelles (ex. : log-normale)

[traitement;requete;objet=article#ID=524#TITLE=Interview Paul Deheuvels]

La sécurité absolue a un coût absolu

Parallèlement, l’opinion publique fait preuve d’une aversion au risque de plus en plus marquée. Or le risque zéro n’existe pas. Ou alors, prévient Hervé Juvin, président d’Eurogroup Institute, « la sécurité absolue a un coût absolu ».  Le besoin de sécurité entraîne des surcoûts considérables, face auxquels les industriels doivent faire des arbitrages. En veillant à ne pas tuer l’activité : « Nos sociétés de l’émotion et de la compassion ne veulent plus admettre le risque, poursuit Hervé Juvin. De fait, on peut décider qu’il n’y aura plus aucun mort sur les routes. Mais cela implique de ne plus rouler du tout. »

[traitement;requete;objet=article#ID=525#TITLE=Recherche]

Derrière la boutade se cache une question de philosophie économique : « Les assureurs doivent interroger leur modèle de croissance », estime Hervé Juvin. Confrontés au coût exponentiel des catastrophes naturelles, ils vont finir par refuser d’assurer certains risques, ou ne l’accepter qu’à un niveau de prime considéré comme prohibitif, constituant ainsi un frein à la croissance : « Les assureurs pourraient bien être les moteurs de la conversion de l’économie à une croissance respectueuse de l’environnement, en faisant payer aux entreprises le coût de la liquidation de la nature. » En admettant, dans le même mouvement, que certains risques ne sont pas quantifiables : « Face au risque nucléaire ou terroriste, par exemple, nous sommes dans l’incommensurable, prévient Hervé Juvin. Or, comme on l’a vu à Fukushima, on ne répond à l’incommensurable que par le sacré : le sacrifice de vies humaines pour enrayer le danger. Se contenter de calculer ces risques pour les assurer est une grossière erreur. » Mais ce sera une étape essentielle : assureurs et industriels ont besoin de chiffres pour faire des arbitrages.

Sabine Germain

[traitement;requete;objet=article#ID=526#TITLE=Des risques sous observation]

Articles du numéro