Female
Diskriminierende Algorithmen: Hasst mich der Algorithmus?
Immer wieder fallen Algorithmen negativ auf, weil sie sexistische oder rassistische Entscheidungen treffen. Was kann man tun, damit Gleichberechtigung auch in Computern ankommt?
Wer „professionelle Frisuren“ googelte, bekam eine Zeit lang nur blonde Flechtfrisuren angezeigt. Als Amazon eine künstliche Intelligenz neue Mitarbeiter aussuchen lassen wollte, wählte die nur Männer aus. Und Forschende der Carnegie-Mellon-Universität in Pittsburgh, USA, fanden heraus, dass Google Jobanzeigen für besonders gut bezahlte Jobs viel häufiger den Nutzern auf ihren Bildschirmen anzeigte, von denen Google durch ihr Nutzerverhalten annahm, dass sie Männer waren.
Was ist da los? Menschen diskriminieren, ob bewusst oder unbewusst, das wissen wir, denn sie lassen sich von Gefühlen, Vorurteilen und persönlichen Vorlieben leiten. Algorithmen aber, die würden doch vernünftig entscheiden, die würden die beste Lösung finden und sich nicht durch Gefühle von den Fakten ablenken lassen. So lautete die große Hoffnung, die man vor allem in selbstlernende Algorithmen setzte. Eines Tages würden sie uns viele Entscheidungen nicht nur abnehmen, sie würden auch bessere treffen. Dieser Traum ist ausgeträumt. Viele Beispiele wie die oben genannten haben uns eines Besseren belehrt: Auch Algorithmen können diskriminieren.
Wie Algorithmen diskriminierende Muster aufnehmen
Die meisten Algorithmen in unserem Alltag sind hilfreich und harmlos. Der Algorithmus eines Navigationssystems etwa berechnet einfach den kürzesten Weg von A nach B. „Eigentlich ist es nur ein ganz kleiner Teil, vor dem wir Respekt haben sollten“, sagt Katharina Zweig, Informatik-Professorin an der TU Kaiserslautern und Autorin des gerade erschienen Buches „Ein Algorithmus hat kein Taktgefühl“. Dieser kleine Teil, den sie meint, sind „algorithmische Entscheidungssysteme, die aus Daten aus der Vergangenheit etwas darüber lernen, wie Menschen sich verhalten haben, und daraufhin Entscheidungen über sie treffen.“
Diese Entscheidungssysteme können diskriminierend sein, weil das Lernmaterial, das sie von Menschen bekommen, es ist. Die Systeme lernen im Grunde wie Kinder: Sie bekommen Bilder, Texte oder Videos, die sie sich genau anschauen und darin nach Mustern suchen, an denen sie ihre Entscheidungen zukünftig ausrichten können. Dabei entdecken sie nur leider auch sexistische und rassistische Muster. Berühmt wurde der Fall des Chatbots „Tay“ von Microsoft, der 2016 als Twitter-Account online ging und schon nach wenigen Stunden wieder abgeschaltet werden musste, weil Twitter-Nutzer ihm rassistische und sexistische Beschimpfungen beigebracht hatten, die „Tay“ nun massenhaft von sich gab. Auch die KI, die für Amazon Mitarbeiter finden sollte, hatte einfach gelernt, dass Männer geeignet seien, weil ihr Lernmaterial fast nur aus Bewerbungen von Männern bestand.
Was also tun? Die Antwort ist nicht einfach, denn für Menschen ist nicht einsehbar, wie der Algorithmus zu seinen Entscheidungen kommt. Sie wissen nur, welches Lernmaterial hinein gegeben wurde und zu welchen Entscheidungen das System am Ende kommt. Deshalb bezeichnen Forschende den Entscheidungsfindungsprozess dazwischen auch als „Black Box“.
Man kann sich also nur die Entscheidungen anschauen und darin nach Erklärungen suchen: Wie kommt das System wohl zu dieser Entscheidung? Auf die Art kam man dahinter, warum ein selbstlernender Algorithmus afroamerikanische Bewerber für eine Stelle ausschloss, obwohl man sowohl Fotos als auch jede Information über die Hautfarbe extra ausgelassen hatte. Der Algorithmus fand offenbar andere Muster, die mit der Hautfarbe korrelierten. Er hatte gelernt, dass ein weiter Weg zur Arbeit ungünstig war und schloss Bewerber aus, die weit weg wohnten. Viele afroamerikanische Bewerber lebten in den oft stark segregierten Städten der USA aber in eben jenen Außenbezirken.
Die Lösung ist also leider nicht so einfach, dass man dem System sagen könnte: Ignorier das Geschlecht oder die Hautfarbe! Denn das System wird möglicherweise andere Muster finden, andere Linien, anhand derer sich die Diskriminierung zeigt, die es dann mitlernt. Auch die besagte Amazon-KI diskriminierte Frauen auch dann noch, als man das Geschlecht gezielt aus den Bewerbungen entfernte, weil sie dann anhand anderer Dinge die Frauen ausmachen konnte, etwa der Mitgliedschaft in Frauenvereinen.
Mit diversen Teams gegen Diskriminierung
Trotzdem arbeiten weltweit Menschen an Lösungen. Es gibt dabei grundsätzlich drei Wege, die wahrscheinlich alle gleichzeitig beschritten werden sollten. Der erste ist der Weg hinein in den Algorithmus. Um Algorithmen mit möglichst vielfältigem und fair ausgerichtetem Material zu trainieren, sind diverse Entwicklerteams zwar noch keine Garantie, aber die bestmögliche Maßnahme. Denn jeder und jede hat – wenn auch ungewollt – so etwas wie blinde Flecken und die beste Möglichkeit, hier Licht ins Dunkel zu bringen, sind Menschen, die sich in ihren Perspektiven gegenseitig ergänzen.
Man kann Algorithmen natürlich auch gezielt mit etwa feministischem Material trainieren. Das macht derzeit die Künstlerin Caroline Sinders. Sie entwickelt eine Software, die ausschließlich mit einem feministischen Datensatz lernt, über 100 Texte sind derzeit drin, von queeren Gedichten über die Lyrics von Beyoncés „Lemonade“ bis zu einem Science-Fiction-Roman von Octavia Butler. Konkrete Anwendungsmöglichkeiten gibt es noch nicht, Sinders möchte erst einmal die „Möglichkeiten feministischer Intelligenz ausloten“, sagte sie Zeit Online in einem Interview. Somit ist es zunächst nur ein Kunstprojekt, die aber auch wichtige Impulse setzen können.
Plädoyer für Transparenz
Der zweite Weg ist Transparenz. Auch wenn man nicht weiß, wie das System zu seinen Entscheidungen kommt, weiß man aber sehr wohl, welche Aufgaben und welches Lernmaterial man ihm gegeben hat. Viele Experten für künstliche Intelligenz, etwa die Organisation „Open AI“, plädieren dafür, solche Dinge transparenter zu machen. Die Aktivistin Caroline Sinders etwa spricht von einer Art Beipackzettel zu jeder Software, auf dem, wie in einer Zutatenliste auf einer Chipstüte, draufsteht, was drinsteckt, zum Beispiel: „Daten von Facebook-Nutzern, 2016 bis 2019, USA, 60 Prozent männlich, 80 Prozent weiß, 15 bis 40 Jahre“. Wer das weiß, so das Argument, ist weniger geneigt, die Entscheidungen, die ein solches System trifft, für allgemein gültig zu halten.
Gegen solche Forderungen wehren sich Tech-Unternehmen oft mit dem Argument, dass ihr Algorithmus eben ein Betriebsgeheimnis sei. Aber die amerikanischen Rechtswissenschaftler Ellen P. Goodman und Robert Brauneis argumentieren in einem Aufsatz von 2017, dass man ja nicht den ganzen Algorithmus offenlegen müsste, sondern nur bestimmte Punkte. Sie haben acht Punkte definiert, die unbedingt an die Öffentlichkeit sollten, etwa: Welches Problem soll der Algorithmus lösen? Mit welchem Material wurde er trainiert? Welches wurde weggelassen und warum?
Pflichten für die Technik
Der dritte Weg schließlich ist der, den Output genau zu beobachten und, wenn er diskriminierend ist, auch zu sanktionieren. Egal, ob gewollt oder nicht, wenn die Ergebnisse, die der Algorithmus, den ich in die Welt setze, Menschen benachteiligt, dann sollte das Konsequenzen haben. Nur so, glauben Experten und Aktivisten wie der dänische Tech-Journalist Henrik Chulu, hätten Unternehmen Anreize, nicht einfach irgendwelche Algorithmen in die Welt zu setzen und dann mal zu schauen, was passiert. Das Europäische Parlament hat sich schon vor zwei Jahren für ein Roboter-Recht ausgesprochen, das auch der Technik Pflichten auferlegen würde. Und Organisationen wie die von Katharina Zweig mitgegründete „Algorithm Watch“ machen es sich zur Aufgabe, die Funktionsweisen und gesellschaftlichen Folgen von Algorithmen in den Blick zu nehmen. Ihre Arbeit ist wichtig, denn Technik ist nie neutral, sie ist schließlich von Menschen gemacht. Und nirgendwo zeigt sich das so stark wie bei selbstlernenden Systemen.