BSI veröffentlicht Whitepaper zum „Bias“ in der KI
Einführung in das Bias-Problem von KI-Systemen
Das Whitepaper Bias in der künstlichen Intelligenz des Bundesamts für Sicherheit in der Informationstechnik (BSI) richtet sich in erster Linie an Entwickler, Anbieter und Betreiber von KI-Systemen, ist aber auch Compliance-Verantwortlichen und Rechtsanwälten zu empfehlen. Es liefert eine kurze, aber umfassende Einführung in die zu wenig beachtete Bias-Problematik, die eine Gefährdung für den sicheren und rechtskonformen Einsatz von KI-Systemen darstellt.
Bias
Der Begriff „Bias“ stammt aus dem Englischen, hat keine direkte deutschsprachige Entsprechung und bedeutet „Verzerrung“, „Vorurteil“ oder „Voreingenommenheit“. In Verbindung mit KI-Systemen wird unter Bias ein systematischer Fehler verstanden, der zur Verzerrung der Ergebnisinhalte führt, die systematisch z.B. in eine diskriminierende Richtung deuten, weil sie bestehende gesellschaftliche Diskriminierungsverhältnisse reproduzieren.
Die Bias-Gefahr lauert in allen KI-Systemen
Auch KI-Systeme, die in bester Absicht und nach dem neuesten Stand der Technik erstellt werden, können von Bias betroffen sein. Denn Bias ist häufig bereits in den Daten vorhanden. Datensammlungen beinhalten immer menschlichen Einfluss und sind gefärbt durch zahlreiche technische, wirtschaftliche, rechtliche und soziale Entscheidungen. Aber auch Designentscheidungen bei der Konzeption eines KI-Modells sowie beim Trainings- und Auswahlprozess können zu Bias im Verhalten der resultierenden KI-Modelle führen.
Um eine informierte Einschätzung zur Gefahr von durch Bias beeinflussten Ausgaben eines KI-Systems treffen zu können, reicht nach Aussage des BSI daher kein punktuelles Vorgehen. Die Gefahrenabschätzung muss vielmehr Teil des gesamten Lebenszyklus eines KI-Systems sein, beginnend bei der Datenerhebung über die Modellkonzeption und dem Modelltraining bis zum Einsatz eines KI-System mit evtl. anfallender Interaktion mit den Nutzern.
Bias kann weitrechende Auswirkungen haben
Die möglichen Auswirkungen von Bias können weitreichend sein. Für Nutzer von KI-Systemen kann eine durch Bias ausgelöste Ungleichbehandlung zu diskriminierenden Ergebnissen führen, wodurch Nutzern beispielsweise unberechtigterweise Zugang zu Ressourcen oder Gelegenheiten verwehrt wird. Aber auch Unternehmen, die KI-Systeme in ihren Geschäftsprozessen oder Produkten einsetzen, können durch Bias-gefärbtes Verhalten geschädigt werden. Beispielsweise wenn eine Ungleichbehandlung durch das eigene Produkt zu schadensersatzpflichtigen Situationen führt. Oder wenn Bias zu einem unerwarteten Verhalten führt, welches die Geschäftsprozesse stört.
Diskriminierung und Verstöße gegen das Gleichbehandlungsgesetz
Die rechtlichen Folgen von Diskriminierung und Ungleichbehandlung können gravierend sein. Auch wenn die Folgen von Diskriminierung noch nicht höchstrichterlich entschieden sind, steht fest, dass Arbeitgeber Maßnahmen ergreifen müssen, um das Diskriminierungsrisiko durch KI zu minimieren.
Arbeitgeber sind gemäß § 12 Allgemeines Gleichbehandlungsgesetz (AGG) verpflichtet, Maßnahmen zum Schutz vor Benachteiligungen wegen der in § 1 AGG genannten Gründe zu ergreifen. Nach § 1 AGG sollen Benachteiligungen aus Gründen der Rasse, der ethnischen Herkunft, des Geschlechts, der Religion oder Weltanschauung, einer Behinderung, des Alters oder der sexuellen Identität verhindert oder beseitigt werden.
Auch in der KI-Verordnung der EU (KI-VO, AI Act) finden sich Vorgaben zum Diskriminierungsschutz. Zu den konkret geforderten Maßnahmen zur Minimierung des Diskriminierungsrisikos durch Algorithmen zählen unter anderem die Qualität der Datensätze, Tests, Risikomanagement, Dokumentation und menschliche Aufsicht während der gesamten Lebensdauer eines KI-Systems. Zudem werden KI-Systeme im Personalwesen als Hochrisiko-Systeme klassifiziert, sodass strenge Compliance-Vorschriften gelten.
Liegt ein Verstoß gegen das AGG vor, kann der diskriminierten Person ein Anspruch auf Entschädigung und/oder Schadensersatz, beispielsweise aus § 15 AGG, zustehen. Um diesen gerichtlich geltend zu machen, muss die betroffene Person vor Gericht den Verstoß beweisen können. Dabei stellt § 22 AGG eine Erleichterung der Beweislast für den Geschädigten dar. Danach kann der Beweis von Indizien, die eine Diskriminierung vermuten lassen, ausreichend sein, um einen Anspruch zu begründen. Es ist dann Aufgabe des Arbeitgebers, darzulegen, dass kein Verstoß vorliegt. Die Beweisführung des Arbeitgebers wird bei einem Einsatz von KI jedoch schwerfallen, da die Funktionsweise vieler Algorithmen nicht nachvollziehbar ist.
Bias-Arten und Bias-Erkennung
Das Whitepaper beschreibt die wichtigsten Bias-Arten und zeigt, welche Gefahren damit verbunden sind. Beim „historischen Bias“ etwa führen veraltete Daten zu unzeitgemäßen Ergebnissen: Arbeitet ein Bewerberauswahlsystem mit Daten aus einer Zeit, in der deutlich mehr Männer als Frauen eingestellt wurden, kann dies dazu führen, dass sich diese Daten auf zukünftige Bewerberentscheidungen auswirken und zu einer unzeitgemäßen Unterrepräsentanz von Frauen führen.
Das BSI stellt umfangreiche Informationen und Fragenkataloge bereit, mit deren Hilfe sich Bias-Gefahren erkennen und im besten Fall beseitigen lassen, fordert aber auch konkrete Handlungen von allen Entwicklern, Anbietern und Betreibern von KI-Systemen. Diese beginnen beim Wissen um die Bias-Thematik und beinhalten die Klärung von Zuständigkeit, die Bias-Erkennung sowie die Bekämpfung möglicher Bias-Ursachen.
-
Personalgespräch - Rechte und Pflichten des Arbeitnehmers
1.7691
-
Wohnrecht auf Lebenszeit trotz Umzugs ins Pflegeheim?
1.2082
-
Wie lange müssen Eltern für erwachsene Kinder Unterhalt zahlen?
1.1882
-
Zweifel an der Arbeitsunfähigkeit eines Arbeitnehmers
1.057
-
Abschreibung: Gebrauchter PKW als Geschäftswagen sinnvoll?
992
-
Rolle des Integrationsamts bei Kündigung schwerbehinderter Menschen
9041
-
Mutterschutzlohn: Anspruch und Berechnung im individuellen Beschäftigungsverbot
861
-
Einseitige Preisanpassung von Amazon Prime ist rechtswidrig
819
-
Klagerücknahme oder Erledigungserklärung?
700
-
Wie kann die Verjährung verhindert werden?
677
-
Kuriose Ziegenattacke im Streichelzoo
07.12.2025
-
Weihnachtsspendenaktion der Hülfskasse Deutscher Rechtsanwälte
05.12.2025
-
Neue Düsseldorfer Tabelle 2026
04.12.2025
-
Mandantenübernahmeklausel mit Pflicht zu 20%-Abgabe stellt verdecktes Wettbewerbsverbot dar
03.12.2025
-
Auffahrunfall: Anscheinsbeweis bei Spurwechsel
03.12.2025
-
Zukunft mit Recht: Arbeiten bei PwC Legal.
02.12.2025
-
Wie Unternehmen und Manager mit Nachhaltigkeit umgehen sollten
02.12.2025
-
Internationale Zuständigkeiten deutscher Gerichte im Zusammenhang mit dem Brexit
02.12.2025
-
Die wichtigsten rechtlichen Neuerungen 2026
01.12.2025
-
Skiunfall ist kein Arbeitsunfall
01.12.2025