BSI veröffentlicht Whitepaper zum „Bias“ in der KI

Das BSI-Whitepaper macht Entwickler und Betreiber von KI-Systemen mit der Bias-Problematik vertraut. Verzerrung und Voreingenommenheit der KI können zu diskriminierenden oder fehlerhaften Entscheidungen führen, die auch erhebliche Schadensersatzansprüche zur Folge haben können. 

Einführung in das Bias-Problem von KI-Systemen 

Das Whitepaper Bias in der künstlichen Intelligenz des Bundesamts für Sicherheit in der Informationstechnik (BSI) richtet sich in erster Linie an Entwickler, Anbieter und Betreiber von KI-Systemen, ist aber auch Compliance-Verantwortlichen und Rechtsanwälten zu empfehlen. Es liefert eine kurze, aber umfassende Einführung in die zu wenig beachtete Bias-Problematik, die eine Gefährdung für den sicheren und rechtskonformen Einsatz von KI-Systemen darstellt. 

Bias 

Der Begriff „Bias“ stammt aus dem Englischen, hat keine direkte deutschsprachige Entsprechung und bedeutet „Verzerrung“, „Vorurteil“ oder „Voreingenommenheit“. In Verbindung mit KI-Systemen wird unter Bias ein systematischer Fehler verstanden, der zur Verzerrung der Ergebnisinhalte führt, die systematisch z.B. in eine diskriminierende Richtung deuten, weil sie bestehende gesellschaftliche Diskriminierungsverhältnisse reproduzieren. 


Die Bias-Gefahr lauert in allen KI-Systemen 

Auch KI-Systeme, die in bester Absicht und nach dem neuesten Stand der Technik erstellt werden, können von Bias betroffen sein. Denn Bias ist häufig bereits in den Daten vorhanden. Datensammlungen beinhalten immer menschlichen Einfluss und sind gefärbt durch zahlreiche technische, wirtschaftliche, rechtliche und soziale Entscheidungen. Aber auch Designentscheidungen bei der Konzeption eines KI-Modells sowie beim Trainings- und Auswahlprozess können zu Bias im Verhalten der resultierenden KI-Modelle führen.  

Um eine informierte Einschätzung zur Gefahr von durch Bias beeinflussten Ausgaben eines KI-Systems treffen zu können, reicht nach Aussage des BSI daher kein punktuelles Vorgehen. Die Gefahrenabschätzung muss vielmehr Teil des gesamten Lebenszyklus eines KI-Systems sein, beginnend bei der Datenerhebung über die Modellkonzeption und dem Modelltraining bis zum Einsatz eines KI-System mit evtl. anfallender Interaktion mit den Nutzern. 

Bias kann weitrechende Auswirkungen haben 

Die möglichen Auswirkungen von Bias können weitreichend sein. Für Nutzer von KI-Systemen kann eine durch Bias ausgelöste Ungleichbehandlung zu diskriminierenden Ergebnissen führen, wodurch Nutzern beispielsweise unberechtigterweise Zugang zu Ressourcen oder Gelegenheiten verwehrt wird. Aber auch Unternehmen, die KI-Systeme in ihren Geschäftsprozessen oder Produkten einsetzen, können durch Bias-gefärbtes Verhalten geschädigt werden. Beispielsweise wenn eine Ungleichbehandlung durch das eigene Produkt zu schadensersatzpflichtigen Situationen führt. Oder wenn Bias zu einem unerwarteten Verhalten führt, welches die Geschäftsprozesse stört. 

Diskriminierung und Verstöße gegen das Gleichbehandlungsgesetz 

Die rechtlichen Folgen von Diskriminierung und Ungleichbehandlung können gravierend sein. Auch wenn die Folgen von Diskriminierung noch nicht höchstrichterlich entschieden sind, steht fest, dass Arbeitgeber Maßnahmen ergreifen müssen, um das Diskriminierungsrisiko durch KI zu minimieren.  

Arbeitgeber sind gemäß § 12 Allgemeines Gleichbehandlungsgesetz (AGG) verpflichtet, Maßnahmen zum Schutz vor Benachteiligungen wegen der in § 1 AGG genannten Gründe zu ergreifen. Nach § 1 AGG sollen Benachteiligungen aus Gründen der Rasse, der ethnischen Herkunft, des Geschlechts, der Religion oder Weltanschauung, einer Behinderung, des Alters oder der sexuellen Identität verhindert oder beseitigt werden. 

Auch in der KI-Verordnung der EU (KI-VO, AI Act) finden sich Vorgaben zum Diskriminierungsschutz. Zu den konkret geforderten Maßnahmen zur Minimierung des Diskriminierungsrisikos durch Algorithmen zählen unter anderem die Qualität der Datensätze, Tests, Risikomanagement, Dokumentation und menschliche Aufsicht während der gesamten Lebensdauer eines KI-Systems. Zudem werden KI-Systeme im Personalwesen als Hochrisiko-Systeme klassifiziert, sodass strenge Compliance-Vorschriften gelten. 

Liegt ein Verstoß gegen das AGG vor, kann der diskriminierten Person ein Anspruch auf Entschädigung und/oder Schadensersatz, beispielsweise aus § 15 AGG, zustehen. Um diesen gerichtlich geltend zu machen, muss die betroffene Person vor Gericht den Verstoß beweisen können. Dabei stellt § 22 AGG eine Erleichterung der Beweislast für den Geschädigten dar. Danach kann der Beweis von Indizien, die eine Diskriminierung vermuten lassen, ausreichend sein, um einen Anspruch zu begründen. Es ist dann Aufgabe des Arbeitgebers, darzulegen, dass kein Verstoß vorliegt. Die Beweisführung des Arbeitgebers wird bei einem Einsatz von KI jedoch schwerfallen, da die Funktionsweise vieler Algorithmen nicht nachvollziehbar ist. 

Bias-Arten und Bias-Erkennung 

Das Whitepaper beschreibt die wichtigsten Bias-Arten und zeigt, welche Gefahren damit verbunden sind. Beim „historischen Bias“ etwa führen veraltete Daten zu unzeitgemäßen Ergebnissen: Arbeitet ein Bewerberauswahlsystem mit Daten aus einer Zeit, in der deutlich mehr Männer als Frauen eingestellt wurden, kann dies dazu führen, dass sich diese Daten auf zukünftige Bewerberentscheidungen auswirken und zu einer unzeitgemäßen Unterrepräsentanz von Frauen führen.  

Das BSI stellt umfangreiche Informationen und Fragenkataloge bereit, mit deren Hilfe sich Bias-Gefahren erkennen und im besten Fall beseitigen lassen, fordert aber auch konkrete Handlungen von allen Entwicklern, Anbietern und Betreibern von KI-Systemen. Diese beginnen beim Wissen um die Bias-Thematik und beinhalten die Klärung von Zuständigkeit, die Bias-Erkennung sowie die Bekämpfung möglicher Bias-Ursachen. 


BSI-Whitepaper „Bias in der künstlichen Intelligenz“


Schlagworte zum Thema:  Recht , Künstliche Intelligenz (KI)
0 Kommentare
Das Eingabefeld enthält noch keinen Text oder nicht erlaubte Sonderzeichen. Bitte überprüfen Sie Ihre Eingabe, um den Kommentar veröffentlichen zu können.
Noch keine Kommentare - teilen Sie Ihre Sicht und starten Sie die Diskussion