Können Daten und Algorithmen Diskriminierung verringern?

Berechnung auf einem ScreenDas Thema Biasing/Bias ist heute mehr oder weniger in das Bewusstsein vieler Entscheidungstragender angekommen. Beim Biasing geht es darum, dass Diskriminierung unbewusst stattfindet. Der Kern ist, dass wir unbewusst Personen bevorzugen, die uns ähnlich sind, was Alter, Bildung, Verhalten und Aussehen betrifft. Und dass es nicht reicht, dass wir das wissen, um dagegen vorzugehen. IM Zweifelsfall werden wir immer die Person bevorzugen, die uns sympathischer ist und hinterher sachlich erklären, warum es diese Person sein muss. „Die Person passt ins Team“ ist ein Totschlag-Argument, mit dem jede Entscheidung gerechtfertigt werden kann. Meines Erachtens ist das eine Grundkonstante menschlichen Verhaltens, die schwer bis gar nicht abzulegen ist.
Vielmehr benötigen wir von Personen unabhängige Mechanismen, die diesen Bias beseitigen. Ein Weg dafür sind anonyme Bewerbungen. Auch die soziale Inklusion kann helfen, denn wenn wir mit „den Anderen“ aufwachsen, erleben wir sie nicht mehr als so anders als wir selbst.
Das ist mehr oder weniger ein alter Hut – sozusagen Mainstream im Diversity-Ansatz. Neu ist meiner Wahrnehmung nach der daten-basierte Ansatz. Beispiele dafür sind die aktuellen Bücher von Iris Bohnet „What Works“ oder Caroline Criado-Perez „Unsichtbare Frauen“.
Klar ist, dass Daten heute bereits eine große Rolle spielen und mit auf KI-basierten Prozessen immer wichtiger werden. Damit verbindet sich die Hoffnung, dass etwa Bewerbungs-Prozesse weniger diskriminierend sind.
Ein Algorithmus ist leider nicht automatisch neutral, es hängt alles von der Programmierung und den Daten ab.
Das heißt auch, dass wir eine Software nicht wie eine Maschine hinstellen können und sie immer funktionieren wird. Vielmehr müssen wir aktuelle Erkenntnisse einschließen und integrieren.
Der Lösungs-Ansatz ist erstaunlich einfach, es scheitert an der Umsetzung. Wenn Daten auf einer gefühlten Mehrheits-Gesellschaft basieren, sind die daraus folgenden Entscheidungen diskriminierend für diverse Minderheiten. Ein Algorithmus kann genau so diskriminieren wie ein Mensch, wenn er einfach nur menschliches Verhalten reproduziert.
Nehmen wir an, der Bremsweg eines Autos ist für einen 1,80 Meter großen 35-jährigen Mann ausgelegt, dann wird der Algorithmus für einen fünf-jährigen Jungen oder einen 80-jährigen Mann nicht so gut funktionieren. Oder ein Bewerbungs-Prozess sortiert alle Personen aus, die in einem bestimmten Stadteil zur Schule gegangen sind oder Lücken in ihrem Lebenslauf haben.
Wir alle diskriminieren – ich auch – ob bewusst oder unbewusst, lassen wir mal dahingestellt. Ein daten-basierter Antidiskriminierungs-Ansatz scheint mir deshalb eine Möglichkeit, dieses Problem zu lösen. Das Problem mit vielen bisherigen Ansätzen wie Anti-Bias-Training ist, dass sie gerne mal viel Geld kosten, oft ein gutes Gefühl verleihen, aber nicht beweisen können, dass sie erfolgreich sind. Das heißt, auch der Erfolg von daten-basierten Ansätzen kann und muss mit Daten belegt werden können. Nur was man messen kann, ist relevant.
Das heißt nicht, dass man allein auf solche Methoden setzen muss. Vielmehr ist ein Bündel an Maßnahmen notwendig. Aber wie im letzten Absatz beschrieben, sollten alle getroffenen Maßnahmen auch auf Erfolg geprüft werden. Wir neigen zu sehr dazu, an kosten-intensive, einfache oder Wohlfühl-Maßnahmen zu setzen, statt darauf zu gucken, ob diese Maßnahmen auch ziel-adäquat sind.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.