Liste des articles
Partager sur :
Vue 227 fois
31 mai 2018

Interview d'Adrien Basdevant

Encadré

« Il s’agit d’empêcher des algorithmes de prendre demain des décisions qui vont avoir un impact sur votre quotidien sans que vous puissiez le savoir, le vérifier ou le contester. »

Adrien Basdevant, avocat associé Lysias Partners et coauteur de L’Empire des données (éditions Don Quichotte)

Quelle est la portée du RGPD ?

Adrien Basdevant : Le RGPD est un formidable moment pour tous les citoyens de s’impliquer dans le débat sur la protection des données personnelles. Un sujet qui a longtemps été réservé à des spécialistes alors qu’il appartient à notre quotidien. La prochaine étape, c’est que le RGPD devienne un outil de soft power européen. Il va falloir le mettre en place et le promouvoir pour que de plus en plus d’acteurs, d’États se l’approprient, et que l’on élève le niveau de protection des données à l’international.


Pour reprendre le contrôle sur les données personnelles, certains évoquent le droit de propriété ou même la monétisation, qu’en pensez-vous ?

Adrien Basdevant : Concernant les données, il existe une approche américaine, qui est patrimonialiste, et une approche européenne, qui est personnaliste. Selon la première, les données relèvent de votre patrimoine, vous pouvez plus facilement les marchander, les monétiser. La seconde repose sur le modèle reconnu en 1976 par la Cour constitutionnelle allemande, qui consacre un droit d’autodétermination informationnel (droit d’accès, rectification). En exerçant ce droit, notamment auprès d’autorités indépendantes comme la Cnil ou par des voies judiciaires, vous pouvez faire valoir vos droits sur ces données et reprendre le contrôle sur la manière dont elles sont gérées. Pour moi, avoir un droit de propriété est une fausse bonne idée. Quand vous êtes propriétaire, cela suppose une exclusivité. Le problème est qu’une donnée prise isolément n’a pas de valeur. Une donnée n’a de la valeur que si elle circule.

Cela a-t-il d’autres conséquences ?

Adrien Basdevant : Le second problème est celui de la valorisation, chacun vend ses données mais il y a une asymétrie informationnelle. Les géants du numérique vont vous dire : « Votre code génétique, ça vaut 20 centimes. À prendre ou à laisser. » Vous allez vendre des choses à des prix complètement dérisoires, vous n’avez aucune marge de négociation, aucun pouvoir de valorisation. Pour autant, la question se pose de savoir s’il serait légitime d’être rétribué pour certaines utilisations de données, selon le modèle de l’open data avec le paiement de licences.
Certaines personnes considèrent au contraire que, si les données sont une émanation de notre personnalité (données sur vos préférences sexuelles ou votre orientation politique, etc.), elles sont rattachées à notre corps. Or nous n’avons pas le droit de vendre les émanations de notre personne.

La Chine est en train de développer un système de notation de ses citoyens basé sur leurs données personnelles. Quels sont selon vous les risques et les abus possibles liés aux données personnelles ?

Adrien Basdevant : La vraie question de ­demain, c’est la discrimination algorithmique. Le cas du credit social score chinois en est un bon exemple. Aujourd’hui les données personnelles sont évoquées, et tout le monde vous parle de vie privée. Mais il faut comprendre que la valeur sociale qui doit être protégée n’est pas uniquement la vie privée ; il s’agit d’empêcher des algorithmes de prendre demain des décisions qui vont avoir un impact sur votre quotidien sans que vous puissiez le savoir, le vérifier ou le contester. Par exemple, les entreprises sont capables de connaître votre historique de navigation sur ­Internet, votre géolocalisation, et peuvent prendre en compte des critères qui auparavant étaient inaccessibles. L’arrondissement de Paris dans lequel vous habitez, votre couleur de peau, votre sexe ou même le groupe de rock que vous écoutez sont-ils des critères acceptables ? À partir du moment où les prises de décision sont traitées par des algorithmes, il faut comprendre comment ils fonctionnent pour savoir s’ils n’intègrent pas de biais ou de discriminations.

Articles liés