Les principaux défis éthiques, juridiques et sociaux du Big Data

Auteur·e·s
Dr. Eleonora Viganò et al.

L’acceptabilité sociétale des solutions Big Data dépend essentiellement de la bonne gestion des questions dits ELSI. ELSI signifie „ethical, legal & social issues“. Par conséquent, plusieurs projets du PNR 75 traitent explicitement de ces questions et les membres de ces projets ont formé une Task Force ELSI. Le livre blanc «Ethical, Legal and Social Issues of Big Data – a Comprehensive Overview» réunit l’expertise des membres de la Task Force ELSI.

Le livre blanc se compose de deux parties : un total de six articles principaux, divisés en trois sections correspondant aux niveaux d’analyse ELSI de l’éthique, du droit et des affaires sociales, et trois commentaires qui développent les sujets déjà traités ou en soulignent de nouveaux. Les conclusions et recommandations les plus importantes des six articles principaux sont résumées ici.

Questions éthiques : Big Data et soins de santé

Auteur: Marcello Ienca

Les tendances du Big Data ont envahi même les soins de santé et promettent d’exercer un impact positif sur la prestation des services de santé. Toutefois, compte tenu de sa nouveauté méthodologique, de sa dépendance à l’égard de vastes référentiels de données et de sa complexité informatique, le big data peut remettre en question les mécanismes de surveillance existants, par exemple par un comité consultatif d’éthique.

Recommandations: Les exigences relatives à l’approbation des études big data par les comités d’éthique devraient être mieux clarifiées. Ceci dans le but de créer une culture de responsabilité parmi les chercheurs impliqués dans des activités big data liées à la santé. Cela implique une augmentation du niveau de compétence des comités d’éthique (par exemple en améliorant leur expertise en science des données), afin qu’ils puissent mieux évaluer les études big data. Le cas échéant, il conviendrait d’envisager la création d’organes de surveillance complémentaires, tels que des comités d’éthique des données.

Questions éthiques : Big Data et consentement éclairé

Auteure: Bernice Elger

Dans le monde numérisé d’aujourd’hui, il est difficile de satisfaire à l’exigence d’un véritable consentement éclairé pour l’utilisation des données. Il pourrait s’avérer nécessaire, plus transparent et plus honnête d’abandonner, au moins en partie, le concept de consentement éclairé au traitement et à l’utilisation du big data, et de l’assortir de mécanismes assurant une protection contre les préjudices ou garantissant une indemnisation appropriée en cas de préjudice.

Recommandations: Les experts et les procédures doivent garantir que la protection des données par l’anonymisation est suffisante, que les personnes reçoivent des informations brèves et compréhensibles sur les principales façons dont leurs données seront utilisées, et que l’abus de données est soit improbable, soit détecté suffisamment tôt pour éviter un préjudice important, indépendamment des choix que les personnes font concernant l’utilisation de leurs données.

Questions juridiques : Lois sur la protection des données et Big Data

Auteur: Christophe Schneble

La protection des personnes concernées est devenue centrale, tant pour la recherche que pour l’utilisation commerciale du big data. Les réglementations actuelles en matière de protection des données jouent un rôle important en fournissant des garanties, en atténuant les risques et en imposant le respect des droits des personnes concernées.

Recommandations: Étant donné que les lois sur la protection des données ne peuvent pas suivre l’évolution très dynamique du big data, le recours à des lignes directrices s’avère complémentaire. Le contexte de l’obtention du consentement est un domaine où l’utilisation de mécanismes modernes tels que le consentement dynamique pourrait par exemple être bénéfique pour les individus, leur engagement et la protection de leurs droits en préservant leur autonomie.

Questions juridiques : Big Data et souveraineté numérique

Auteure: Eleonora Viganò

La souveraineté numérique fait référence, d’une part, à l’autonomie d’un État dans la régulation et la protection des données de ses citoyens et, d’autre part, à l’auto-détermination des utilisateurs dans l’usage de leurs données personnelles. Ces deux significations peuvent entrer en conflit dans le cas du Big Data car les données personnelles sont un bien sur lequel les individus comme les États visent à exercer leur autonomie.

Recommandations: Car le big data étant immatériel, il ne peut être réglementé selon des modalités fondées sur la souveraineté de l’État sur un espace physique fini. Par conséquent, les États doivent se coordonner et coopérer entre eux pour réglementer la collecte, le stockage, le partage et la transmission du big data. Dans ce contexte, l’objectif de l’État de protéger la sécurité de son infrastructure numérique doit être mis en balance avec l’autonomie de ses citoyens, afin d’éviter toute intrusion injustifiée de l’État dans la vie privée de ses citoyens.

Questions sociales : Big Data Divide

Auteur: Markus Christen

Le « big data divide » décrit la relation asymétrique entre ceux qui collectent, stockent et exploitent de grandes quantités de données (généralement des entreprises) et ceux qui sont la cible de cette collecte de données (p. ex. les clients).

Recommandations: Recommandations : Le big data divide est une conséquence inévitable dans une société qui valorise la liberté et la diversité; éliminer cette fracture est un objectif politique erroné. Au lieu de cela, le législateur devrait identifier les préjudices réalistes susceptibles de résulter du big data divide et élaborer des garanties juridiques pour ceux qui sont désavantagés par cette fracture. Dans ce contexte, des valeurs comme la non-malfaisance et l’équité peuvent s’avérer plus pertinentes que l’autonomie et la vie privée.

Questions sociales : Discrimination et Big Data

Auteur: Michele Loi

Ce que l’on appelle des a priori peuvent potentiellement conduire à la discrimination et à l’injustice dans l’apprentissage automatique. Cependant, la définition de ce qui est considéré comme un a priori ne relève pas seulement d’une question technique mais d’un choix normatif.

Recommandations: Les décideurs politiques devraient faire de l’équité une exigence pour la conception de systèmes algorithmiques impliquant des enjeux importants. La discrimination ne s’évite pas en évitant le traitement des informations relatives aux groupes. Ces données doivent pouvoir être collectées afin de vérifier l’équité des algorithmes. Les politiques anti-discrimination doivent être suffisamment souples pour permettre l’emploi de différentes normes statistiques dans différents cas d’utilisation.

A propos du livre blanc

Liens supplémentaires

À propos de la ELSI Task Force

Membres

  • Christoph Baumberger
  • Mira Burri
  • Markus Christen
  • Ulrich Leicht-Deobald
  • Trude Hirsch
  • Marcello Ienca
  • Michele Loi
  • Sophie Mützel
  • Christophe Schneble
  • David Shaw
  • Eleonora Viganò
  • Kirsten Johanna Wesiak-Schmidt

Organisations