Algorithmen bergen Diskriminierungsrisiken
Ob bei der Kreditvergabe, der Auswahl neuer Mitarbeitender oder bei juristischen Entscheidungen – in immer mehr Bereichen werden Algorithmen dazu eingesetzt, menschliche Entscheidungen vorzubereiten oder sie ihnen gleich ganz abzunehmen. „Dass dies zwangsläufig zu objektiveren und damit faireren Entscheidungen führt, erweist sich heute leider oft als Trugschluss“, sagt Carsten Orwat vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT (Karlsruher Institut für Technologie). „Kritisch wird es insbesondere dann, wenn die Algorithmen mit tendenziösen Daten arbeiten und auf eigentlich geschützte Merkmale zurückgreifen.“ Hierzu gehören vor allem Alter, Geschlecht, ethnische Herkunft, Religion, sexuelle Orientierung oder Behinderungen.
Welche Ursachen diese Formen der Diskriminierung haben, wie sie sich auf die Gesellschaft auswirken und sich Diskriminierungsrisiken künftig verringern lassen, hat Orwat im Auftrag der Antidiskriminierungsstelle des Bundes eingehend untersucht. Die Studie „Diskriminierungsrisiken durch Verwendung von Algorithmen“ veranschaulicht anhand von 47 Beispielen – darunter auch zahlreiche aus dem HR-Bereich – wie Algorithmen auf unterschiedliche Weise diskriminieren können und wie man dies nachweisen kann.
Studie zeigt vielfältige Beispiele für Diskriminierungsrisiken
Der Studienautor beschreibt beispielsweise Vorgänge auf dem Immobilien- und Kreditmarkt oder im Strafvollzug. In den USA gebe es mehrere dokumentierte Fälle, in denen die Algorithmen Sozialer Medien Wohnungsanzeigen zugelassen hätten, die durch den ‚Fair Housing Act‘ geschützte Personengruppen nicht zu sehen bekamen – etwa Migranten, Menschen mit Behinderung oder Nicht-Weißer Hautfarbe. In Finnland wurde ein Kreditinstitut zu Strafzahlungen verurteilt, weil sein Algorithmus bei der automatisierten Online-Kreditvergabe Männer gegenüber Frauen und finnische gegenüber schwedischen Muttersprachlern benachteiligte. Beides Ungleichbehandlungen, die nach dem finnischen Antidiskriminierungsrecht verboten sind. Und: US-amerikanische Richter arbeiten bei der Entscheidung über vorzeitige Haftentlassungen mit einem umstrittenen System, das Risikoscores berechnet. Journalisten- und Menschrechtsverbände kritisieren, dass das System das Rückfallrisiko von schwarzen Menschen systematisch zu hoch bewertet.
Diskriminierung durch Algorithmen im HR-Umfeld
Auch aus dem HR-Umfeld führt der Studienautor zahlreiche Beispiele an. Am bekanntesten dürfte der Fall Amazon sein. Das Unternehmen nutzte seit 2014 ein in der Entwicklung befindliches Softwaresystem zur Suche und Bewertung von im Web aufzufindenden Lebensläufen potenzieller Mitarbeiterinnen oder Mitarbeiter. Das maschinelle Lernverfahren wurde an Lebensläufen trainiert, um nach Wortmustern zu suchen, die auf erfolgreiche Mitarbeitende schließen sollten. Während der Entwicklungszeit habe man bemerkt, dass das System nicht geschlechterneutral bewertet. Das System stufte Begriffe mit „women’s“ und Namen von zwei ausschließlich weiblichen (Hoch-)Schulen herab. Als Trainingsdaten wurden Lebensläufe der letzten zehn Jahre verwendet, die hauptsächlich von Männern stammten. Darin spiegelte sich die männliche Mehrheit an Beschäftigten in der Technologiebranche wider. Auch mit Anpassungen des Systems konnte man nicht sicherstellen, dass das System nicht andere Wege entwickelt hätte, mit denen Bewerbende diskriminiert worden wären. Das Entwicklerteam wurde 2017 aufgelöst.
Darüber hinaus führt der Studienautor mehrere Beispiele an, bei dem Unternehmen gezielt die Differenzierungsmöglichkeiten von Facebook oder Onlinejobbörsen genutzt haben, um Stellenanzeigen selektiv zu schalten, zum Beispiel um diese nur für Männer oder nur für bestimmte Altersgruppen auszuspielen.
Ursachen für Diskriminierung durch Algorithmen
„Bei Systemen des maschinellen Lernens wird es häufig problematisch, wenn KI-Systeme mit Daten trainiert werden, die Ungleichbehandlungen oder Stereotypen abbilden“, erklärt Orwat: „Dann spiegeln auch die so erzeugten Algorithmen die Ungleichbehandlungen oder Stereotypen wider." Wenn Daten verarbeitet werden, die Bewertungen von Menschen über anderer Menschen beinhalten, so könnten sich Ungleichheiten und Diskriminierungen sogar verbreiten oder verstärken, ergänzt Orwat.
Diskriminierungsfreie Algorithmen – aber wie?
Die Studie nennt mehrere Ansatzmöglichkeiten, um Diskriminierungen bei algorithmenbasierten Differenzierungen zu begegnen. „Am sinnvollsten erscheinen präventive Maßnahmen“, sagt Orwat. So könnten Firmen ihre Personal beziehungsweise IT-Mitarbeiter von Antidiskriminierungsstellen beraten lassen. Diese Angebote könnten auch sensibilisieren, so dass nur solche Datensätze verwendet werden, die keine diskriminierenden Praktiken oder Ungleichheiten widerspiegeln.
Das Ziel sei es, so Orwat, dass Algorithmen in Zukunft „diskriminierungsfrei by design“ werden. Dazu müssten Programme bereits während ihrer Entwicklung geprüft werden. Letztlich gehe es dabei immer um den Schutz von gesellschaftlichen Werten wie Gleichheitsziele oder Schutz der freien Entfaltung der Persönlichkeit. Damit diese auch angesichts der rasanten Entwicklungen von „Big Data“ und KI gewährt bleiben, sei es an verschiedenen Stellen nötig, das Antidiskriminierungs- und Datenschutzrecht zu verbessern.
Das könnte Sie auch interessieren:
Künstliche Intelligenz im Personalwesen
KI-Richtlinien für HR: Ethikbeirat stellt finale Fassung vor
-
Essenszuschuss als steuerfreier Benefit
722
-
Workation und Homeoffice im Ausland: Was Arbeitgeber wissen müssen
641
-
BEM ist Pflicht des Arbeitgebers
360
-
Probezeitgespräche als Feedbackquelle für den Onboarding-Prozess
297
-
Vorlage: Leitfaden für das Mitarbeitergespräch
291
-
Ablauf und Struktur des betrieblichen Eingliederungsmanagements
241
-
Das sind die 25 größten Anbieter für HR-Software
241
-
Mitarbeiterfluktuation managen
2204
-
Acht rettende Sätze für schwierige Gesprächssituationen
210
-
Warum Offboarding an Bedeutung gewinnt
177
-
Haufe Live: Praxisnahe Einblicke in den KI-Einsatz
18.12.2025
-
“Nicht das Gehalt erhöhen, sondern den Gehalt”
17.12.2025
-
Wie Chat GPT und Co. die Jobsuche verändern
16.12.2025
-
Beim Anteil von Frauen in Führung verändert sich wenig
15.12.2025
-
Warum Offboarding an Bedeutung gewinnt
12.12.2025
-
"Wir müssen mit KI Schritt halten"
11.12.2025
-
Wenn der Chef-Chef anklopft
10.12.2025
-
Wie ein inklusiver Berufseinstieg gelingt
08.12.2025
-
Warum zu viel Harmonie die Produktivität zerstört
05.12.2025
-
Die richtigen Skills mobilisieren
04.12.2025