Diskriminierung und Big Data
Autor
Dr. Michele Loi
University of Zurich and Milano Politecnico
Dieser Beitrag befasst sich mit dem Problem des Daten-Bias und der daraus möglicherweise folgenden Diskriminierung beim maschinellen Lernen. Kernpunkt des Beitrags ist, dass die Definition dessen, was als Diskriminierung gilt, nicht nur eine technische Angelegenheit ist, sondern eine normative Entscheidung. Wir überprüfen einige Definitionen von Diskriminierung, die derzeit entwickelt werden, und bewerten sie von einem normativen Standpunkt aus.
Empfehlungen
Politische Entscheidungsträger sollten Fairness als Voraussetzung für die Gestaltung von algorithmischen Systemen in sensiblen Bereichen definieren. Diskriminierung wird nicht dadurch vermieden, indem man auf die Verarbeitung von bestimmten geschützten Merkmalen verzichtet. Stattdessen soll die Fairness von Algorithmen systematisch überprüft werden. Allfällige Antidiskriminierungsmassnahmen müssen aber flexibel genug sein, um unterschiedliche statistische Standards für unterschiedliche Anwendungsfälle zu legitimieren.
Zum White Paper
- Download PDF
- Eleonora Viganò (Universität Zürich) – Herausgeberin
- Mira Burri (Universität Luzern)
- Markus Christen (Universität Zürich)
- Bernice Elger (Universität Basel)
- Christian Hauser (University of Applied Science of the Grisons)
- Marcello Ienca (EPFL)
- Michele Loi (Universität Zürich)
- Christophe Schneble (Universität Basel)
- David Shaw (Universität Basel)