Privacy Engineering: quelles opportunités et applications pour les recherches scientifiques publiques?

La recherche publique, et tout particulièrement les centres de recherche publics [1], est confrontée aux règles de protection des données à caractère personnel et cherche des solutions concrètes pour protéger ses participants. Dans cet article, Chloë Lellinger, Data Protection Officer au LISER, vient mettre en lumière un pan relativement nouveau de la recherche en génie informatique: la «Privacy Engineering» et explique comment ce domaine peut apporter des méthodes et techniques appliquées à l’informatique pour garantir la protection des données à caractère personnel.

  

Malgré l’échec de l’assistant vocal de notre voiture à comprendre nos demandes d’appel après un rendez-vous chez le dentiste ou de notre tondeuse à gazon intelligente à se dégager seule de la boule de pétanque en plastique oubliée là par nos enfants, il n’est plus à nier que les nouvelles technologies sont d’une grande aide dans notre vie de tous les jours – du moins elles essaient. Alors, pour quelles raisons ces nouvelles technologies ne pourraient-elles pas nous aider à protéger notre vie personnelle? Cette question, nous nous la sommes posée au Luxembourg Institute of Socio-Economic Research (LISER). Plus particulièrement, nous nous sommes demandé comment protéger au mieux la vie privée des participants des recherches tout en continuant à expliquer les challenges de la société de demain et y apporter des pistes de réponses?

Tout chercheur largement inspiré par les principes éthiques de sa profession le confirmera: les activités de recherche ne doivent pas être réalisées au détriment des participants, toute information partagée est un gage de confiance nécessaire à la recherche publique, et plus particulièrement la recherche publique a l’individu et la société pour centre d’intérêt pour poursuivre ses missions dans l’intérêt général. Ces principes de bonne conduite du chercheur trouvent en partie écho dans les règles du droit à la protection des données. Ce domaine du droit trouve ses origines dans la convention internationale 108 [2] de 1981 puis s’est ancré indirectement dans les systèmes juridiques européens par une directive en 1995 et enfin directement par le règlement 2016/679 sur la protection des données [3] (RGPD). Ces normes impactant la gestion des données par les infrastructures informatiques ont nécessité une traduction technique. Ceci a ouvert la voie à un nouveau domaine de recherche scientifique, qui est l’ingénierie pour la protection des données ou Privacy Engineering, plus récemment connu sous la dénomination de Data Protection Engineering.

 

Définition de la Privacy Engineering

L’ingénierie de la protection des données trouve ses fondements académiques au début des années 2000 puis a vu une explosion de son intérêt à partir de 2012 [4], probablement  en lien avec l’acceptation internationale de la résolution sur la Privacy by Design [5] par les commissaires à la protection des données. Gürses et al., en 2016 lors de l’«International Workshop for Privacy Engineering» [6] définissent la Privacy Engineering comme la discipline qui traite de la conception, du développement et de la fabrication de systèmes informatiques matériels ou logiciels ayant pour objectif la protection des données et le respect de la vie privée des utilisateurs. La Privacy Engineering repose sur des principes venant remettre en cause le design d’architectures informatiques et de logiciels. Un des enjeux de cette discipline qui repose notamment sur la maîtrise des techniques de cryptographie (cryptographie symétrique, asymétrique, etc.), est l’apport de réponses aux nouvelles difficultés émergeant des traitements de Big Data.

 

Exemples de techniques et méthodes

Différentes techniques ont été développées pour faciliter et encourager la protection de l’identité des individus dans l’espace digital, qu’elles soient absolues, en rendant les personnes définitivement non-réidentifiables (anonymisation), ou relatives, en rendant temporairement les individus non-réidentifiables (pseudonymisation). Parmi ces techniques, on compte les méthodes de contrôle de confidentialité statistique (par exemple, le logiciel Eurostat publié en open source depuis 2014 [7]) ou encore la confidentialité différentielle actuellement en vogue. Pour une vue globale des techniques actuelles en matière de pseudonymisation, l’ENISA (agence européenne de cybersécurité) a publié en janvier 2021 un recueil de bonnes pratiques [8].

D’autres solutions permettent d’analyser les données à caractère personnel grâce à une technique cryptographique sans avoir à donner accès ou à partager les données (calcul multipartite sécurisé – secure multi-party computation). Cette méthode est aujourd’hui au centre de nombreux projets de recherche qui sont actuellement financés par le programme H2020 et qui tentent de développer des plateformes intégrant tous les modules nécessaires aux utilisateurs pour analyser les données à caractère personnel en grand nombre (Big Data) tout en garantissant la protection effective des données [9].

 

Cas concrets d’application pour la recherche

Les cas d’utilisation de telles techniques et méthodes respectueuses de la protection des données sont multiples: de la pseudonymisation des données des assurés à la sécurité sociale pour des études sur les trajectoires professionnelles de ces individus, au partage de données chiffrées de bout en bout d’administrations vers le LISER pour la réalisation d’échantillonnages pour l’identification de la population cible d’enquêtes statistiques, en passant par des techniques de design utilisateur pour faciliter la compréhension des modèles algorithmiques de prédiction des phénomènes économiques ou sociaux étudiés.

Les techniques et méthodes de la Privacy Engineering sortent lentement de l’ombre et se voient appropriées par le législateur et les gouvernements européens. On voit certaines des techniques présentées désormais citées dans des propositions de textes de lois européens (proposition de Règlement (UE) sur la gouvernance des données – Data Governance Act [10]) et faire l’objet d’appels d’offres nationaux (par exemple, l’appel d’offres luxembourgeois pour une infrastructure nationale de pseudonymisation et d’anonymisation). Il reste à parier sur l’avenir radieux de cette discipline et de ces techniques ainsi que de leur appropriation par les centres de recherche pour une protection renforcée des participants aux activités de recherche publique.

 


 

[1] Loi du 3 décembre 2014 portant sur l’organisation des Centres de Recherche Publics http://legilux.public.lu/eli/etat/leg/loi/2014/12/03/n2/jo

 

[2] www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/LIBE/DV/2018/09-10/Convention_108_EN.pdf

 

[3] www.eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679

 

[4] Gürses et al, 2016, www.ieeexplore.ieee.org/document/7448344

 

[5] Cavoukian, Privacy and Security by Design, an Enterprise Architecture approach, 2009, www.ipc.on.ca/wp-content/uploads/Resources/pbd-privacy-and-security-by-design-oracle.pdf

 

[6] www.iwpe.info/index.html

 

[7] www.joinup.ec.europa.eu/collection/statistics/solution/sdctools-tools-statistical-disclosure-control/about

 

[8] www.enisa.europa.eu/publications/pseudonymisation-techniques-and-best-practices

 

[9] www.cordis.europa.eu/article/id/428769-data-protection-new-technologies-to-protect-privacy

 

[10] Proposition de règlement européen sur la gouvernance des données, en son considérant six sont nommés: www.eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52020PC0767&from=EN

 

Lire sur le même sujet: