Liste des articles
Partager sur :
Vue 463 fois
31 mai 2018

Rencontre de Mickaël Berrebi

|
Consultant financier, actuaire certifié IA et auteur

Auteur, avec Jean-Hervé Lorenzi, de L’Avenir de notre liberté. Faut-il démanteler Google… et quelques autres ?, Mickaël Berrebi, appelle le politique à reprendre la main sur les « prophètes technologiques ».

 

[traitement;requete;objet=article#ID=1509#TITLE=Les dates clés]

 

En mars, éclatait le scandale Cambridge Analytica : les données de plusieurs dizaines de millions de comptes Facebook auraient été indûment exploitées dans le cadre de campagnes électorales. Avez-vous été surpris ?

Mickaël Berrebi : Cette crise était d’autant plus prévisible qu’elle n’est pas la première. Pensons à l’affaire Snowden ! Toutefois, aucun des scandales précédents n’a jusqu’ici conduit à une véritable évolution dans le comportement des utilisateurs. Ces derniers semblent encore très dépendants des services mis gratuitement à leur disposition par les géants technologiques en échange de data. La nouveauté en revanche, avec l’affaire Cambridge Analytica, c’est ce début de prise de conscience… Prenons l’exemple du moteur de recherche français Qwant, qui assure ne pas croiser l’identité des internautes avec leurs requêtes. Après la révélation de l’affaire Cambridge Analytica, Qwant est resté en panne pendant près de six heures à la suite d’un afflux exceptionnel d’audience. En fait, je pense que c’est ce type de solutions alternatives qui va continuer à émerger, et ce en parallèle des réorganisations progressives des géants de la tech.


Les Gafa et autres géants de la technologie sont donc les « hommes à abattre »…

Mickaël Berrebi : Je ne crois pas que l’on puisse être surpris qu’une entreprise privée vende des données à des fins commerciales ou politiques, ou qu’elle cherche à pratiquer l’optimisation fiscale. En revanche, lorsque ces géants se transforment en « prophètes technologiques », cherchant à nous imposer un projet de société, nous courons un vrai risque. Ils se disent capables de lutter contre la pauvreté, le terrorisme, la maladie… mais, au final, ils agrègent des données confidentielles qu’auparavant on ne transmettait qu’individuellement à son médecin, son pharmacien, son assureur, etc. Par le passé, des entreprises comme AT&T ou la Standard Oil ont, elles aussi, pu maîtriser l’ensemble d’une chaîne de valeurs. Mais, cette fois-ci, les géants technologiques, profitant de la perte d’influence du politique, vont plus loin et imposent, par la voix de leurs dirigeants, leur vision du monde de demain.


Une vision inspirée par le transhumanisme ?

Mickaël Berrebi : Je pense que c’est un risque. Le mouvement transhumaniste cherche à utiliser la science pour améliorer les capacités physiques et mentales de l’homme, jusqu’à tenter de le rendre immortel. Beaucoup de grandes entreprises technologiques financent, de façon directe ou non, ce mouvement. Citons Raymond Kurzweil, transhumaniste et directeur de la recherche chez Google. Or ces sujets, qu’ils touchent au big data, à l’intelligence artificielle ou à la manipulation génétique, soulèvent des questions éthiques qui nécessitent un débat collectif. Le politique doit reprendre la main sur ces prophètes technologiques. C’est pour souligner cette prise de conscience que Jean-Hervé Lorenzi et moi-même avons voulu décrire les dangers de l’éden technologique qu’ils nous proposent : la disparition du libre-arbitre avec le big data, la déshumanisation avec l’intelligence artificielle, la remise en question de la notion de confiance avec la blockchain et l’homme-dieu avec la manipulation génétique.


Les risques liés au big data ne dépassent-ils pas aujourd’hui les frontières des géants technologiques ? Les entreprises plus traditionnelles y ont aujourd’hui recours, à commencer par l’assurance…

Mickaël Berrebi : Il y a effectivement une prise de conscience que la data est une forme de pétrole qu’il faut extraire, raffiner puis exploiter. De plus en plus, les entreprises cherchent à associer leur savoir-faire métier historique au savoir-faire des grands noms de la technologie sur la donnée, via des partenariats. Les assureurs font aussi partie de ce mouvement. Regardez l’annonce du partenariat entre Amazon, JP Morgan et Berkshire Hathaway autour de l’assurance santé. Si demain un assureur a accès à autant de données que Facebook, par exemple, il sera en mesure de réinventer l’évaluation d’une police d’assurance. Autre exemple, celui des progrès réalisés autour du génome : pourquoi ne pas imaginer que demain un assureur puisse être tenté d’exploiter le patrimoine génétique des assurés pour mieux évaluer leur police d’assurance ? Dans tous les cas, les données collectées permettraient d’obtenir une appréciation de plus en plus fine et intime du risque. Les techniques actuarielles basées sur une vision collective céderaient finalement la place à une approche de data-science et de ciblage individuel.


L’intelligence artificielle porte, selon vos mots, un risque de déshumanisation. C’est un terme fort…

Mickaël Berrebi : Rappelons d’abord qu’à chaque innovation l’homme s’est inquiété pour sa personne. Les guerriers grecs voyaient déjà leur métier menacé par l’apparition de la catapulte. Dans le textile, les luddites anglais, puis les canuts lyonnais ont détruit ces machines qui menaçaient leur emploi. À chaque fois, l’homme a le sentiment de ne plus être utile, la machine réfléchissant à sa place : c’est une forme de déshumanisation. Depuis une quinzaine d’années, le marché de l’emploi est soumis à un phénomène de bipolarisation : se déve­loppent, d’un côté, des emplois très qualifiés nécessitant la combinaison de plusieurs compétences et, de l’autre, des emplois à faible valeur ajoutée. Les emplois intermédiaires, en revanche, sont menacés, par la délocalisation hier, par les robots aujourd’hui. Ce que l’on ne voit pas, ce sont les emplois qui émergeront inévitablement dans les quinze prochaines années. Comme dans toute destruction créatrice schumpétérienne, cette disparition des emplois n’est pas une fatalité à moyen et à long terme, même si elle renforce à court terme les craintes autour de la bipolarisation de l’emploi.


Le rapport sur l’intelligence artificielle rendu fin mars par Cédric Villani va-t-il dans le bon sens ?

Mickaël Berrebi : C’est un bon rapport qui fait une place aux questions éthiques. Mais on peut regretter que le débat reste ­franco-français et entre experts. Les risques liés à l’intelligence artificielle, en particulier ceux liés à l’émergence d’une IA forte, où la machine n’apprendrait plus simplement de l’homme mais pourrait avoir des opinions ou ressentir des émotions, nécessitent un débat politique international.


Les changements induits par la blockchain portent-ils des risques de même nature ?

Mickaël Berrebi : Notre perception de la blockchain est un peu biaisée par l’exemple du bitcoin, la première application connue du grand public utilisant la technologie blockchain et qui traîne cette image controversée à cause des risques que le bitcoin suppose. En revanche, la technologie sous-jacente – la blockchain – révolutionne toute notre conception de la transaction, qui, jusqu’à présent, avait toujours été basée sur la notion d’intermédiaire et de tiers de confiance.


Des tiers de confiance comme les intermédiaires financiers ?

Mickaël Berrebi : Au-delà de la monnaie, la notion de transaction de pair à pair que permet la blockchain peut s’appliquer à tous types d’actifs. Les notaires, les courtiers, les assureurs, les éditeurs… sont donc concernés dans le rôle qu’ils jouent au niveau de la transaction. En revanche, la blockchain ne menace pas en soi l’activité à valeur ajoutée du métier, comme le pricing d’une police d’assurance par exemple. Les banques centrales commencent d’ailleurs à étudier ce que peut leur apporter, en termes de réduction de coûts, une blockchain chapeautée par une gouvernance appropriée.


Au-delà des progrès dans le numérique, vous vous inquiétez de ceux du secteur de la santé. Pourquoi ?

Mickaël Berrebi : Le digital, dont on parle beaucoup, n’est qu’un détail à l’aune du progrès scientifique pris au sens large. Parmi ces autres pans d’activité, la santé, et plus particuliè­rement la modification du génome, se détache. Ce n’est un domaine ni nouveau, ni mauvais. Mais l’émergence, ces dernières années, d’une technique particulière rend un débat éthique indispensable. En effet, les scientifiques savent désormais modifier les quatre bases de l’ADN (A, T, C et G : adénine, cytosine, guanine, thymine, ndlr), de manière très rapide et peu coûteuse grâce à la technique du CRISPR-Cas9. Jennifer Doudna, l’une des chercheuses qui l’a mise au point, estime qu’un élève de 2e ou 3e année d’études de biologie est en mesure d’utiliser ce ciseau d’ADN. Comme, de plus, il est bon marché, toutes sortes d’expérimentations peuvent être menées, sans qu’aucune entité internationale veille à son utilisation. Des chercheurs chinois ont d’ailleurs déjà entrepris des expériences ­directement sur des embryons humains. Tout cela va très vite.


Au point de remettre en question les tables de mortalité de l’actuaire ?

Mickaël Berrebi : Pour Larry Page, guérir les principaux cancers ferait gagner trois ans à l’espérance de vie moyenne. Le vieillissement démographique – qui est déjà un vrai enjeu pour la profession – restera donc un phénomène progressif. D’autant que ces avancées de la science ne seront probablement pas accessibles à tous de la même façon, ce qui représente en soi un autre débat tout aussi indispensable.


La solution se trouve-t-elle dans davantage de régulation ?

Mickaël Berrebi : Ce qu’il faut en premier lieu, c’est la volonté politique. Et cela passera par une prise de conscience des citoyens, qui voudront reprendre la main sur ces sujets. Ce sont eux qui, à l’époque, s’étaient révoltés contre la puissance d’entreprises privées comme la Standard Oil, ce qui a permis d’aboutir au Sherman Act puis au Clayton Act et donc au démantèlement de ces géants. Jusqu’à peu, on pensait que cela ne pouvait pas s’appliquer à des entreprises comme Google ou Facebook. Mais les différentes crises semblent faire bouger les choses. Le RGPD est une première brique de régulation en matière de protection des données dans l’Union européenne. Surtout, le débat doit être international. Pourquoi ne pas appliquer aux données personnelles ou aux manipulations génétiques la même démarche que pour le risque nucléaire, avec la constitution de l’AIEA en 1957 ? Et si l’on n’attendait pas une crise comme Hiroshima pour agir ?


Qu’apporte votre formation d’actuaire à votre regard critique sur l’innovation ?

Mickaël Berrebi : C’est un bagage quantitatif et scientifique qui aide à appréhender les grands enjeux économiques mais aussi les différentes technologies qui modèlent l’environnement actuel. S’il est intéressant, le prisme de l’actuariat n’est qu’un angle d’étude parmi d’autres. La philosophie, la littérature, l’histoire... sont autant de disciplines qui ont beaucoup à apporter au débat.

 

 

Articles liés