BSI veröffentlicht Whitepaper zum „Bias“ in der KI
Einführung in das Bias-Problem von KI-Systemen
Das Whitepaper Bias in der künstlichen Intelligenz des Bundesamts für Sicherheit in der Informationstechnik (BSI) richtet sich in erster Linie an Entwickler, Anbieter und Betreiber von KI-Systemen, ist aber auch Compliance-Verantwortlichen und Rechtsanwälten zu empfehlen. Es liefert eine kurze, aber umfassende Einführung in die zu wenig beachtete Bias-Problematik, die eine Gefährdung für den sicheren und rechtskonformen Einsatz von KI-Systemen darstellt.
Bias
Der Begriff „Bias“ stammt aus dem Englischen, hat keine direkte deutschsprachige Entsprechung und bedeutet „Verzerrung“, „Vorurteil“ oder „Voreingenommenheit“. In Verbindung mit KI-Systemen wird unter Bias ein systematischer Fehler verstanden, der zur Verzerrung der Ergebnisinhalte führt, die systematisch z.B. in eine diskriminierende Richtung deuten, weil sie bestehende gesellschaftliche Diskriminierungsverhältnisse reproduzieren.
Die Bias-Gefahr lauert in allen KI-Systemen
Auch KI-Systeme, die in bester Absicht und nach dem neuesten Stand der Technik erstellt werden, können von Bias betroffen sein. Denn Bias ist häufig bereits in den Daten vorhanden. Datensammlungen beinhalten immer menschlichen Einfluss und sind gefärbt durch zahlreiche technische, wirtschaftliche, rechtliche und soziale Entscheidungen. Aber auch Designentscheidungen bei der Konzeption eines KI-Modells sowie beim Trainings- und Auswahlprozess können zu Bias im Verhalten der resultierenden KI-Modelle führen.
Um eine informierte Einschätzung zur Gefahr von durch Bias beeinflussten Ausgaben eines KI-Systems treffen zu können, reicht nach Aussage des BSI daher kein punktuelles Vorgehen. Die Gefahrenabschätzung muss vielmehr Teil des gesamten Lebenszyklus eines KI-Systems sein, beginnend bei der Datenerhebung über die Modellkonzeption und dem Modelltraining bis zum Einsatz eines KI-System mit evtl. anfallender Interaktion mit den Nutzern.
Bias kann weitrechende Auswirkungen haben
Die möglichen Auswirkungen von Bias können weitreichend sein. Für Nutzer von KI-Systemen kann eine durch Bias ausgelöste Ungleichbehandlung zu diskriminierenden Ergebnissen führen, wodurch Nutzern beispielsweise unberechtigterweise Zugang zu Ressourcen oder Gelegenheiten verwehrt wird. Aber auch Unternehmen, die KI-Systeme in ihren Geschäftsprozessen oder Produkten einsetzen, können durch Bias-gefärbtes Verhalten geschädigt werden. Beispielsweise wenn eine Ungleichbehandlung durch das eigene Produkt zu schadensersatzpflichtigen Situationen führt. Oder wenn Bias zu einem unerwarteten Verhalten führt, welches die Geschäftsprozesse stört.
Diskriminierung und Verstöße gegen das Gleichbehandlungsgesetz
Die rechtlichen Folgen von Diskriminierung und Ungleichbehandlung können gravierend sein. Auch wenn die Folgen von Diskriminierung noch nicht höchstrichterlich entschieden sind, steht fest, dass Arbeitgeber Maßnahmen ergreifen müssen, um das Diskriminierungsrisiko durch KI zu minimieren.
Arbeitgeber sind gemäß § 12 Allgemeines Gleichbehandlungsgesetz (AGG) verpflichtet, Maßnahmen zum Schutz vor Benachteiligungen wegen der in § 1 AGG genannten Gründe zu ergreifen. Nach § 1 AGG sollen Benachteiligungen aus Gründen der Rasse, der ethnischen Herkunft, des Geschlechts, der Religion oder Weltanschauung, einer Behinderung, des Alters oder der sexuellen Identität verhindert oder beseitigt werden.
Auch in der KI-Verordnung der EU (KI-VO, AI Act) finden sich Vorgaben zum Diskriminierungsschutz. Zu den konkret geforderten Maßnahmen zur Minimierung des Diskriminierungsrisikos durch Algorithmen zählen unter anderem die Qualität der Datensätze, Tests, Risikomanagement, Dokumentation und menschliche Aufsicht während der gesamten Lebensdauer eines KI-Systems. Zudem werden KI-Systeme im Personalwesen als Hochrisiko-Systeme klassifiziert, sodass strenge Compliance-Vorschriften gelten.
Liegt ein Verstoß gegen das AGG vor, kann der diskriminierten Person ein Anspruch auf Entschädigung und/oder Schadensersatz, beispielsweise aus § 15 AGG, zustehen. Um diesen gerichtlich geltend zu machen, muss die betroffene Person vor Gericht den Verstoß beweisen können. Dabei stellt § 22 AGG eine Erleichterung der Beweislast für den Geschädigten dar. Danach kann der Beweis von Indizien, die eine Diskriminierung vermuten lassen, ausreichend sein, um einen Anspruch zu begründen. Es ist dann Aufgabe des Arbeitgebers, darzulegen, dass kein Verstoß vorliegt. Die Beweisführung des Arbeitgebers wird bei einem Einsatz von KI jedoch schwerfallen, da die Funktionsweise vieler Algorithmen nicht nachvollziehbar ist.
Bias-Arten und Bias-Erkennung
Das Whitepaper beschreibt die wichtigsten Bias-Arten und zeigt, welche Gefahren damit verbunden sind. Beim „historischen Bias“ etwa führen veraltete Daten zu unzeitgemäßen Ergebnissen: Arbeitet ein Bewerberauswahlsystem mit Daten aus einer Zeit, in der deutlich mehr Männer als Frauen eingestellt wurden, kann dies dazu führen, dass sich diese Daten auf zukünftige Bewerberentscheidungen auswirken und zu einer unzeitgemäßen Unterrepräsentanz von Frauen führen.
Das BSI stellt umfangreiche Informationen und Fragenkataloge bereit, mit deren Hilfe sich Bias-Gefahren erkennen und im besten Fall beseitigen lassen, fordert aber auch konkrete Handlungen von allen Entwicklern, Anbietern und Betreibern von KI-Systemen. Diese beginnen beim Wissen um die Bias-Thematik und beinhalten die Klärung von Zuständigkeit, die Bias-Erkennung sowie die Bekämpfung möglicher Bias-Ursachen.
-
Personalgespräch - Rechte und Pflichten des Arbeitnehmers
1.7921
-
Wie lange müssen Eltern für erwachsene Kinder Unterhalt zahlen?
1.3862
-
Wohnrecht auf Lebenszeit trotz Umzugs ins Pflegeheim?
1.3202
-
Rolle des Integrationsamts bei Kündigung schwerbehinderter Menschen
9511
-
Mutterschutzlohn: Anspruch und Berechnung im individuellen Beschäftigungsverbot
941
-
Abschreibung: Gebrauchter PKW als Geschäftswagen sinnvoll?
919
-
Zweifel an der Arbeitsunfähigkeit eines Arbeitnehmers
902
-
Überbau und Konsequenzen – wenn die Grenze zum Nachbargrundstück ignoriert wurde
861
-
Klagerücknahme oder Erledigungserklärung?
755
-
Kein gemeinsames Sorgerecht bei schwerwiegenden Kommunikationsstörungen der Eltern
682
-
GEMA-Sieg über OpenAI – zumindest vorläufig
18.11.2025
-
Kündigung nach online erworbener AU-Bescheinigung ohne ärztliche Untersuchung
18.11.2025
-
Individuelle Beratungsgespräche ersetzen keine Fachanwaltsfortbildung
17.11.2025
-
Wucherähnliches Sale-and-rent-back-Geschäft
17.11.2025
-
Ladung zur Gesellschafterversammlung: Prüfungsumfang des Registergerichts
12.11.2025
-
7-jähriger kaufte für 33.000 EUR Spiele im Google-Playstore
09.11.2025
-
Rückabwicklung eines Hauskaufs trotz Gewährleistungsausschluss
07.11.2025
-
Auch nach 17 Jahren noch unwürdig für den Anwaltsberuf
06.11.2025
-
Einseitige Preisanpassung von Amazon Prime ist rechtswidrig
06.11.2025
-
Kein Ausgleichsanspruch für Vertragshändler?
05.11.2025