Regulierung der Big-Data-gestützten Forschung

Autorin
Prof. Bernice Simone Elger
Universität Basel

Gespräch mit dem Projektleiter des NFP75-Projekts.

Was war das Ziel Ihres Projekts?

Unser Projekt zielte darauf ab, einen vernünftigen, effizienten und sicheren Rahmen für die nutzbringende Big-Data-Forschung zu schaffen und die ethische und regulatorische Unsicherheit zu verringern, welche Big-Data-Forschung umgibt, indem wir ethische Leitlinien für einzelne Forschende und Forschungseinrichtungen bereitstellen und den Bedarf an Harmonisierung bei der Sammlung, Speicherung und Analyse digitaler Daten ansprechen.

Was sind die Resultate?

Aus ethischer Sicht wirft die Big-Data-Forschung unvorhersehbare ethische Fragestellungen auf, einschliesslich des Risikos von Schäden für die Forschungsteilnehmenden wie Diskriminierung, Eingriff in die Privatsphäre und möglicher Missbrauch ihrer Daten. Unser Projekt hat gezeigt, dass die Analyse der ethischen Probleme von Big Data und die Bewertung des Schadens, der für die Forschungsteilnehmenden entstehen könnte, noch in den Kinderschuhen steckt und dass sowohl in der Literatur als auch unter Wissenschaftlerinnen und Wissenschaftlern weltweit noch erhebliche Unsicherheit darüber besteht, wie sie angemessen geregelt werden können. Insbesondere die kontextabhängige Natur der ethischen Fragen von Big Data schafft grosse Hindernisse für die Schaffung standardisierter und einheitlicher Richtlinien und Vorschriften.

Unseren Ergebnissen zufolge sind sich Wissenschaftlerinnen und Wissenschaftler, welche Forschung am Menschen betreiben, zumindest der Möglichkeit dieser unvorhersehbaren Herausforderungen bewusst. Allerdings ist der Unterschied zwischen Forschung am Menschen und Forschung mit anonymen Daten oft unscharf, und es fehlt an Hinweisen, wie man möglichen Schaden angemessen verhindern kann. Daher sollte die Digitalisierung der Forschungspraxis in der Schweiz von Programmen zur Förderung der ethischen Bildung und Reflexion für Wissenschaftlerinnen und Wissenschaftler, die Big-Data-Studien durchführen wollen, begleitet werden.

Weitere wichtige Erkenntnisse?

Es besteht eine besondere gegenseitige Abhängigkeit zwischen rechtlichen, ethischen und sozialen Fragen. Dieses Problem ist nicht neu, und die regulatorische Unsicherheit ist bei verschiedenen neuen Technologien üblich, die in den Bereich der Wissenschaft eindringen und in der Gesellschaft umgesetzt werden. Die allgegenwärtige Datafizierung macht die Big-Data-Forschung jedoch besonders sichtbar und für die Gesellschaft relevant. Die Abschwächung von Risiken und Schäden würde einen verfahrenstechnischen Ansatz erfordern, der die Übersetzung aller Governance-Aspekte von den ethischen Grundsätzen über das Leitgesetz bis hin zur konkreten Umsetzung von Mechanismen umfasst.

Die rasche technische Entwicklung unterliegt iterativen Zyklen und mehreren Anpassungen auf dem Weg dorthin. So hat sich beispielsweise die Einführung der Datenschutz-Grundverordnung auf die konkrete Umsetzung von Einwilligungsmechanismen ausgewirkt. Die Entdeckung neuer Deidentifizierungsalgorithmen würde die Anonymisierung beeinflussen. Diese beiden Beispiele sind nur zwei von sehr vielen Beispielen, die sich auf die Umsetzung auswirken, aber sie zeigen die Notwendigkeit, Leitlinien, Verfahren und Verhaltenskodizes regelmässig zu überarbeiten und zu aktualisieren.

Was bedeutet das für Ethikkommissionen?

Aufgrund des Trends zur Digitalisierung in der Forschung und der zahlreichen ethischen Fragen, welche Big Data aufwirft, sollte die Einführung einer spezifischeren ethischen Aufsicht und Bewertung in Betracht gezogen werden. Eine Lösung besteht darin, Expertinnen und Experten für Big-Data-Forschung in die kantonalen Forschungsethikkommissionen aufzunehmen. Dies löst jedoch nicht das Problem, wie Forschung beraten werden soll, die als ausserhalb des Anwendungsbereichs des Humanforschungsgesetzes liegend betrachtet wird. Die Rolle und der Zuständigkeitsbereich der kürzlich in der Schweiz eingeführten Ethik-Review-Boards auf institutioneller Ebene (Universitäten oder Fakultäten) sollten erweitert werden, um spezifische Leitlinien für die Big-Data-Forschung bereitstellen zu können. Eines unserer Papers enthält einige Vorschläge und Best Practices für die Verbesserung des Systems der Ethikkommissionen, die auch für den Schweizer Kontext äusserst relevant sind.

Review Boards sollten professionalisiert werden und die ethische Unbedenklichkeit von Forschungsprojekten während ihres gesamten Datenlebenszyklus überwachen und zu einem integralen Bestandteil des Forschungsprojekts werden, sodass die Verantwortung und die Last für den Schutz der Forschungsteilnehmenden auch mit den Wissenschaftlerinnen und Wissenschaftlern selbst geteilt werden. Aufgrund der zunehmenden Beteiligung privater Unternehmen an der akademischen Forschung sollte die ethische Bewertung auch auf die von privaten Unternehmen durchgeführte Forschung ausgeweitet werden, um den Schutz der Forschungsteilnehmenden und die nachhaltige Zusammenarbeit mit akademischen Einrichtungen zu verbessern.

Ihr Projekt hat einige Empfehlungen für die Politik. Welche sind die?

In der Tat sind die Ergebnisse dieses Projekts vor allem auf der Ebene der Empfehlungen für die Politik relevant. Was die Schaffung eines umfassenden und harmonisierten Rahmens für die Big-Data-Forschung anbelangt, so zeigen unsere Ergebnisse, dass ein solches Unterfangen an sich schon schwierig ist. Es gibt derzeit viele heterogene Arten von Big-Data-Forschung und -Analyse, die zu unterschiedlichen ethischen Fragen führen können, die sich nicht auf eine einfache, übergreifende, für alle geltende Regelung reduzieren lassen.

Daher sollten Richtlinien und Vorschriften für die Forschung an Menschen, die Big-Data-Methoden verwenden, anstelle von unflexiblen standardisierten Normen die Bedeutung kontextbezogener Entscheidungsfindung, ethischer Überlegungen und ausgewogener Kompromissanalysen während der gesamten Lebensdauer eines Forschungsprojekts betonen – von der Planung einer bestimmten Studie bis zu deren Abschluss.

Darüber hinaus unterstreicht unsere Analyse im Kontext der ethischen Aufsicht, wie wichtig es ist, die ethische Bewertung und Regulierung auch auf die Unternehmensforschung auszuweiten. Auf diese Weise kann einerseits vermieden werden, dass schädliche Big-Data-Forschung am Menschen ausserhalb der Wissenschaft stattfindet, und anderseits ein Beitrag zur Entwicklung geeigneter Verfahren der Zusammenarbeit zwischen privaten Unternehmen und öffentlichen und akademischen Einrichtungen bei der Konzeption und Durchführung nützlicher Big-Data-Studien geleistet werden.

Und was ist mit der Regulierung von Big Data?

Was die Vorschläge zur angemessenen Regulierung von Big Data betrifft, so unterstreichen die Ergebnisse unserer empirischen Studie, dass der Big-Data-Exzeptionalismus (Behandlung von Big Data anders als andere Arten von Daten) nicht das geeignete Modell ist. Ein umfassender «alle Daten»-Ansatz steht eher im Einklang mit der Schweizer Gesetzgebung, die den Schwerpunkt auf Einwilligung und Benachrichtigung legt, sowie mit den Präferenzen, die von Schweizer Anwältinnen und Anwälten sowie Datenschutzbeauftragten in den Interviews geäußert wurden. Die Studie unter Anwältinnen und Anwälten sowie Datenschutzbeauftragten hat gezeigt, dass es noch viele Unklarheiten gibt, die in Zukunft noch genauer behandelt werden müssen. So wird beispielsweise das Konzept des Dateneigentums, das vor allem von Laien als Lösung für eine bessere Kontrolle über die eigenen Daten angesehen wird, von Juristinnen und Juristen als umstritten angesehen. Obwohl viele Juristinnen und Juristen auf persönlicher Ebene das Konzept nachvollziehbar finden, dass Patientinnen und Patienten in irgendeiner Form von der gemeinsamen Nutzung ihrer Daten profitieren sollten, ist das Konzept des Dateneigentums auf professioneller Ebene nicht mit dem heutigen Rechtsdogma vereinbar.

Unsere Analyse hat gezeigt, dass in verschiedenen sektoriellen Gesetzen wie dem Humanforschungsgesetz, dem Bundesgesetz über das Urheberrecht und verwandte Schutzrechte und vielen anderen, die von den verschiedenen institutionellen Einrichtungen eingehalten werden müssen, bereits zahlreiche Schutzmassnahmen für Daten bestehen. Dieses Know-how sowohl Laien als auch Wissenschaftlerinnen und Wissenschaftlern zugänglich zu machen, ist eine entscheidende Aufgabe für die Zukunft. Die Einwilligung stand in den letzten 50 Jahren im Mittelpunkt der Forschung mit Probandinnen und Probanden. Die enorme Zunahme der an der Forschung teilnehmenden Datensubjekte in gross angelegten Big-Data-Studien macht es jedoch schwierig, diesen Mechanismus sowohl für Forschende als auch für Datensubjekte/Teilnehmende aufrechtzuerhalten. Die Politik sollte daher entweder dynamische und automatische Einwilligungsportale oder Datenkooperativen fördern, um eine Alternative zur einzig möglichen Option der breiten Einwilligung zu bieten.

Big Data ist ein sehr vager Begriff. Können Sie uns erklären, was Big Data für Sie bedeutet?

Unser Forschungsprojekt trug durch die Analyse der Definition zum Verständnis von Big Data bei. Unsere Ergebnisse deuten auf eine allgemeine Unsicherheit oder ein Unbehagen gegenüber dem Begriff selbst innerhalb des akademischen Milieus hin. Dies könnte ein Symptom für die Tendenz sein, Big Data als ein sich wandelndes und sich entwickelndes kulturelles und wissenschaftliches Phänomen – oder als ein Cluster-Konzept, das eine Fülle von hochentwickelten und sich entwickelnden Computermethoden umfasst – und nicht als eine klar definierte und einzelne Einheit oder Methode zu betrachten.

Unsere Forschungsstudie unterstreicht jedoch, dass eine begriffliche Klarheit des Begriffs Big Data von grösster Bedeutung wäre, um angemessene Richtlinien zum Schutz von Forschungssubjekten in der Big-Data-Forschung in verschiedenen Disziplinen zu entwickeln. Wir argumentieren, dass Gesetze, Verordnungen und Richtlinien, welche die Big-Data-Forschung regeln sollen, wahrscheinlich nicht vollständig wirksam sind, solange die Definitionen unklar sind, vor allem, wenn Forschende den rechtlichen Rahmen nicht kennen oder aus Angst vor regulatorischen Beschränkungen davon absehen, ihre Forschung als Big-Data-Forschung zu definieren.

Eine Strategie, dieses Problems zu überwinden und das Verständnis von Big Data zu fördern, besteht darin, den Begriff Big Data in seine verschiedenen Bestandteile zu zerlegen oder zu entfalten und so von breiten Allgemeinheiten – wie der Betrachtung von Big Data als Oberbegriff – zu spezifischen Eigenschaften überzugehen, die für jede spezifische Unterkategorie von Big Data relevant sind. Dies wird uns in die Lage versetzen, die verschiedenen ethischen Fragen angemessen zu erfassen und geeignete Strategien zum Schutz der Forschungsteilnehmenden zu entwickeln.

Zum Projekt