Ethische, rechtliche und soziale Herausforderungen von Big Data

Autor:innen
Dr. Eleonora Viganò et al.

Die gesellschaftliche Akzeptanz von Big-Data-Lösungen hängt entscheidend vom richtigen Umgang mit so genannten ELSI-Themen ab. ELSI steht für «ethical, legal & social issues». Daher befassten sich mehrere Projekte im Rahmen des NFP 75 ausdrücklich mit diesen Themen und Mitglieder dieser Projekte bildeten eine ELSI Task Force. Das White Paper «Ethical, Legal and Social Issues of Big Data – a Comprehensive Overview» vereint das Fachwissen der Mitglieder der ELSI Task Force.

Das White Paper besteht aus zwei Teilen: insgesamt sechs Hauptartikel, unterteilt in drei Abschnitte entsprechend den ELSI-Analyseebenen Ethik, Recht und Soziales, sowie drei Kommentare, die entweder bereits behandelte Themen vertiefen oder neue hervorheben. Zusammengefasst sind hier die wichtigsten Erkenntnisse und Empfehlungen aus den sechs Hauptartikeln.

Ethische Fragen: Big Data im Gesundheitswesen

Autor: Marcello Ienca

Big Data durchdringt immer mehr das Gesundheitswesen und verspricht dabei einen positiven Einfluss auf die Dienstleistungen im Gesundheitswesen. Da die Nutzung von Big Data aber von grossen Datenbeständen abhängt sowie in methodischer und rechnerischer Hinsicht komplex ist, führt dies zu neuen Herausforderungen für Aufsichtsorgane; z.B. für Ethikkommissionen.

Empfehlungen: Die Anforderungen an die Genehmigung von Big-Data-Studien durch Ethikkommissionen sollten besser geklärt werden. So kann eine Kultur der Verantwortlichkeit unter Forschenden entstehen, die an gesundheitsbezogenen Big-Data-Aktivitäten beteiligt sind. Unter anderem bedingt dies, dass der Kompetenzgrad in Ethikkommissionen (z.B. mit Fachkenntnissen in Datenwissenschaft) erhöht wird, damit diese Big-Data-Studien besser beurteilen können. Gegebenenfalls sind ergänzende Aufsichtsgremien wie Datenethikausschüssen nötig.

Ethische Fragen: Big Data und informierte Zustimmung

Autorin: Bernice Elger

Angesichts der heutigen Möglichkeiten von Big Data ist es schwierig, immer eine echte informierte Zustimmung zur Datennutzung einzuholen. Es wäre also transparenter und ehrlicher, das Konzept der Einwilligung zumindest teilweise aufzugeben, und stattdessen das Prinzip der informierten Zustimmung durch Mechanismen zu ergänzen, die einen Schutz vor Schaden gewährleisten oder eine angemessene Entschädigung im Falle eines Schadens garantieren.

Empfehlungen: Fachpersonen und Verfahren sollen sicherstellen, dass der Datenschutz durch Anonymisierung ausreichend ist, dass die Menschen kurze, verständliche Informationen über die wichtigsten Verwendungsmöglichkeiten ihrer Daten erhalten und dass Datenmissbrauch entweder unwahrscheinlich ist oder früh genug erkannt wird, um erheblichen Schaden zu verhindern, unabhängig davon, welche Entscheidungen die Menschen über die Verwendung ihrer Daten treffen.

Rechtliche Fragen: Datenschutzgesetze und Big Data

Autor: Christophe Schneble

Der Schutz von Datensubjekten ist sowohl für die Forschung als auch für die kommerzielle Nutzung von Big Data von zentraler Bedeutung. Die aktuellen Datenschutzbestimmungen spielen eine wichtige Rolle bei der Gewährleistung von Schutzmassnahmen, der Risikominderung und der Festlegung von Rechten für die Betroffenen.

Empfehlungen: Da Datenschutzgesetze der Dynamik der Entwicklung im Bereich Big Data nicht folgen können, ist die Bereitstellung von Leitlinien der bessere Weg. Dabei ist die dynamische Einwilligung in die Datennutzung ein vielversprechender Bereich. So kann die Autonomie der einzelnen Person wie auch der Schutz ihrer Rechte gewahrt werden.

Rechtliche Fragen: Big Data und digitale Souveränität

Autorin: Eleonora Viganò

Digitale Souveränität bezeichnet einerseits die Autonomie eines Staates bei der Regulierung und damit auch beim Schutz der Daten seiner Bürgerinnen und Bürger und anderseits die Selbstbestimmung der Nutzerinnen und Nutzer bei der Verwendung ihrer persönlichen Daten. Die beiden Bedeutungen können im Fall von Big Data miteinander in Konflikt stehen, weil persönliche Daten ein Gut sind, auf das sowohl Individuen als auch Staaten ihre Autonomie ausüben wollen.

Empfehlungen: Da Big Data immateriell sind, können sie nicht auf eine Weise reguliert werden, die auf der Souveränität des Staates über einen endlichen physischen Raum beruht. Folglich sollten sich die Staaten untereinander abstimmen und zusammenarbeiten, um die Erhebung, Speicherung, Weitergabe und Übertragung regeln. Dabei muss das Ziel des Staates, die Sicherheit seiner digitalen Infrastruktur zu schützen, gegen die Autonomie seiner Bürgerinnen und Bürger abgewogen werden, um ungerechtfertigte Eingriffe des Staates in die Privatsphäre zu vermeiden.

Soziale Fragen: Die grosse Datenkluft

Autor: Markus Christen

Der Ausdruck «Big Data Divide» beschreibt die asymmetrische Beziehung zwischen denjenigen, die grosse Datenmengen sammeln, speichern und auswerten (in der Regel Unternehmen), und denjenigen, die das Ziel der Datenerhebung sind (z. B. Kundinnen und Kunden).

Empfehlungen: Die «Big Data Divide» ist eine unvermeidliche Folge einer Gesellschaft, die Freiheit und Vielfalt schätzt; die Beseitigung dieser Kluft ist ein falsches politisches Ziel. Stattdessen sollte der Gesetzgeber realistische Schaden-Szenarien identifizieren und rechtliche Schutzmassnahmen für diejenigen entwickeln, die durch die Kluft benachteiligt werden. Dabei können Werte wie Nichtschaden und Fairness wichtiger sein als Autonomie und Privatsphäre.

Soziale Fragen: Diskriminierung und Big Data

Autor: Michele Loi

Sogenannter Daten-Bias kann möglicherweise zu Diskriminierung beim maschinellen Lernen führen. Die Definition dessen, was als Diskriminierung gilt, ist aber nicht nur eine technische Angelegenheit, sondern eine normative Entscheidung.

Empfehlungen: Politische Entscheidungsträger sollten Fairness als Voraussetzung für die Gestaltung von algorithmischen Systemen in sensiblen Bereichen definieren. Diskriminierung wird nicht dadurch vermieden, dass man auf die Verarbeitung von bestimmten geschützten Merkmalen verzichtet. Stattdessen soll die Fairness von Algorithmen systematisch überprüft werden. Allfällige Antidiskriminierungs-Massnahmen müssen aber flexibel genug sein, um unterschiedliche statistische Standards für unterschiedliche Anwendungsfälle zu legitimieren.

Zum White Paper

Weiterführende Links

Zur ELSI Task Force

Mitglieder

  • Christoph Baumberger
  • Mira Burri
  • Markus Christen
  • Ulrich Leicht-Deobald
  • Trude Hirsch
  • Marcello Ienca
  • Michele Loi
  • Sophie Mützel
  • Christophe Schneble
  • David Shaw
  • Eleonora Viganò
  • Kirsten Johanna Wesiak-Schmidt

Organisationen