Algorithm Bias – Was der Storch nicht bringt

Die Digitalisierung hat unser Leben in vielerlei Hinsicht verändert, vom Online-Shopping über soziale Medien bis hin zur personalisierten Werbung. Dieser Wandel hat jedoch seinen Preis: Algorithmen in künstlicher Intelligenz haben das Potential, bereits marginalisierte Gruppen weiterhin zu benachteiligen. Für die meisten von uns ist die Welt der künstlichen Intelligenz (KI) komplex, obskur und undurchschaubar. Viele denken bei KI möglicherweise zuerst an Science-Fiction, aber im Grunde geht es bei der künstlichen Intelligenz um die Entwicklung von Computersystemen, die Aufgaben ausführen können, für die vorher menschliche Intelligenz benötigt wäre. Algorithmen des maschinellen Lernens verarbeiten riesige Datenmengen und sind ebenso wie die menschliche Intelligenz auf genaue Informationen angewiesen.

Bei der Entwicklung von KI sind es daher immer noch Menschen, die die Daten generieren, sammeln und kennzeichnen, welche in die Datensätze eingehen. Ebenso sind es Menschen, die bestimmen, aus welchen Datensätzen, Variablen und Regeln die Algorithmen lernen, um Vorhersagen treffen zu können. Einem Artikel in der Stanford Social Innovation Review zufolge "können beide Phasen zu Verzerrungen führen, die sich in KI-Systemen festsetzen". Wie sehen diese Verzerrungen konkret aus? Und warum stellen sie ein Problem dar?

Schlimmer geht immer

Wie eine solche Verzerrung konkret aussehen kann, zeigt eine Studie der Carnegie Mellon Universität in Pittsburgh, Pennsylvania. Hier wurde beispielsweise festgestellt, dass in Bezug auf die Verfügbarkeit der Arbeitsplätze der Algorithmus von Google für die Ausrichtung von Anzeigen Männern eher hoch bezahlte Stellenanzeigen anzeigt als Frauen. In Conclusio bedeutet dies, dass Frauen diese Stellenanzeigen seltener zu sehen bekamen und daher Chancen auf einen beruflichen Aufstieg sowie höhere Gehälter verpassen.

vier illustrierte Menschen in Anzügen halten eine Maske in der Hand.
c iStock, Aleutie

 

Auch können Verzerrung von Algorithmen die Genauigkeit von Modellen des maschinellen Lernens beeinträchtigen. So wurde beispielsweise festgestellt, dass Algorithmen zur Gesichtserkennung bei Frauen und BIPoC (Black, Indigenous and People of Color) weniger genau sind. Kommerzielle Gesichtserkennungssysteme verwenden häufig Bilddatensätze, denen es an vielfältigen und repräsentativen Stichproben mangelt. Die Verwendung des binären Geschlechts bei der Geschlechtsklassifizierung führt überdies zu einer ungenauen, vereinfachenden Sichtweise des Geschlechts. Gemeinsam kann dies nicht nur schwerwiegende Folgen für die Überwachung, Sicherheit und Strafverfolgung haben, sondern kreiert auch inhärent rassistische KI- Systeme.

Algorithmen, die mit voreingenommenen Daten trainiert werden, können diskriminierende Einstellungspraktiken aufrechterhalten. Dies lässt sich auch im Bildungswesen beobachten. So können Algorithmen, die bei Zulassungsverfahren an Universitäten eingesetzt werden, unbeabsichtigt bestimmte Geschlechter oder Rassen diskriminieren. Darüber hinaus können Algorithmen, die bei der Einstellung von Lehrkräften eingesetzt werden, bestehende Vorurteile in der akademischen Welt aufrechterhalten. Eine Studie von Forscher*innen der University of California, Berkeley, hat beispielsweise ergeben, dass Algorithmen, die bei der Einstellung von Lehrkräften verwendet werden, Frauen insbesondere in Bereichen wie Ingenieurwesen und Informatik benachteiligen, indem ihre Lebensläufe automatisch aussortiert werden, da beispielsweise ihr Profil nicht mit dem des früheren Mitarbeiters übereinstimmt.

Die meisten demografischen Daten werden auf der Grundlage von binären Kategorien (weiblich/männlich) gekennzeichnet. Wenn das Geschlecht auf diese Weise vereinfacht wird, verringert sich das Potenzial der KI, die Fluidität der Geschlechter und nuancierte Geschlechtsidentitäten widerzuspiegeln, und kann zu einer beleidigenden Behandlung oder sogar Auslöschung bereits marginalisierter Gruppen führen.

Beispiele für derlei Verzerrungen lassen sich in fast allen gesellschaftlichen Bereichen wiederfinden: Im Gesundheitswesen werden männliche Körper als Standards verwendet. Im Bereich der Infrastruktur werden Gebäude nicht auf die Lebensrealitäten von Frauen zugeschnitten. In der Sozialfürsorge werden marginalisierte Gruppen von Unterstützungsmechanismen ausgeschlossen. Die Liste an Beispielen aus dem wirklichen Leben, die aufzeigt, wie weit verbreitet diese algorithmischen Verzerrungen in der KI sind, ist lang und erschreckend. Ebenso die gesellschaftlichen Auswirkungen.

KI ist nur so gut, wie seine*ihre Erschaffer*innen

Algorithmische geschlechts- und herkunftsspezifische Verzerrungen sind damit in gewisser Weise ein Spiegelbild der Welt, in der wir leben. Wie reißen wir nun diesem Unkraut die Wurzeln aus? Und auf was muss geachtet werden, damit Vielfalt und Gleichberechtigung auch im Bereich der KI wachsen kann?

Diese Voreingenommenheit kann das Ergebnis vieler Faktoren sein, einschließlich fehlerhafter Daten, fehlerhafter Annahmen oder bewusster oder unbewusster Vorurteile auf Seiten der Personen, die die Algorithmen entwerfen und implementieren. Lösungen könnten darin bestehen, in der gesamten Branche klarere soziale und ethische Standards für die Darstellung des Geschlechts einzuführen, auf diverse Entwickler*innenteams zu achten sowie bei der Entwicklung von KI, Lebensrealitäten von insbesondere marginalisierten Gesellschaftsgruppen miteinfließen zu lassen. Das Problem ist durchaus von mehreren Enden anzufassen, und dies gleichzeitig. Es reicht nicht, lediglich auf ein diverses Team zu setzen, die Entwickler*innen müssen die akademischen und kommerziellen Datensätze sowie die darin enthaltenen Klassen und Bezeichnungen auch verstehen. Sie müssen lernen zu antizipieren, wie verschiedene Menschen mit Technologien interagieren und welche Probleme hierbei auftreten könnten.

Ähnlich wie bei der Kreation von menschlichen Leben, ist auch bei der Kreation von digitalem Leben nicht zu vergessen, dass auch die computergestützte Entscheidungsfindung eng gekoppelt ist an die menschliche Entscheidungsfindung – und diese ist nie völlig frei von sozialen und politischen Werten, die Menschen haben.

23.03.2023