European Parliamentary Research Service

KI-Einsatz in Asylverfahren kann Grundrecht verletzen


KI-Einsatz in Asylverfahren kann Grundrecht verletzen

Der wissenschaftliche Dienst des Europäischen Parlaments stellt in einem Bericht fest, dass erhebliche Risiken für die Grundrechte der Betroffenen entstehen, wenn Asylverfahren mit Künstlicher Intelligenz bearbeitet werden. KI-Technologien würden zwar den Behörden nützen, aber die Position der Asylbewerber im System schwächen.  

Der wissenschaftliche Dienst des Europäischen Parlaments (EPRS, European Parliamentary Research Service) hat sich mit den Auswirkungen des Einsatzes von Künstlicher Intelligenz in Asylverfahren beschäftigt. In seinem Abschlussbericht, der als Briefing des Europäischen Parlaments veröffentlicht wurde, warnt der EPRS davor, dass der KI-Einsatz in Asylverfahren die Grundrechte der Antragsteller verletzen kann. Konkret stellt der EPRS fest, dass KI-Technologien Ungenauigkeit, Voreingenommenheit, Diskriminierung, Verfahrensbeeinflussung und Datenschutzrisiken mit sich bringen. 

KI wird auch in Deutschland bei Asylverfahren eingesetzt 

Der Bericht befasst sich mit KI-Systemen, die europaweit bei Asylverfahren eingesetzt werden. Einige davon werden auch in Deutschland genutzt. So verwendet etwa das Bundesamt für Migration und Flüchtlinge (BAMF) ein KI-System, das Dialekte erkennt. Es dient dazu, das Herkunftsland der Asylantragsteller festzustellen, wenn keine Nachweise vorliegen. Und auch bei der Analyse vom Mobiltelefondaten hilft mittlerweile KI: Liegen keine Ausweisdokumente vor, müssen Antragsteller ihr Smartphone aushändigen, dessen Dateninhalte dann automatisch ausgewertet werden. Aus den Rufnummern der Kontakte, den verwendeten Sprachen in Textnachrichten und den Standortdaten der vorhandenen Fotos wird dann ebenfalls ein Herkunftsland ermittelt. 

Europäische Agentur für Grundrechte warnte bereits 2020 vor KI-Einsatz 

Bereits 2020 hat die Europäische Agentur für Grundrechte (FRA, Fundamental Rights Agency) in einem Untersuchungsbericht davor gewarnt, dass durch den KI-Einsatz mehrere Grundrechte asylsuchender Menschen gefährdet würden. Dazu zählten unter anderem die Würde des Menschen (Artikel 1 der Charta der Grundrechte der Europäischen Union), die Achtung des Privat- und Familienlebens (Art. 7) sowie die Gleichheit vor dem Gesetz und Nichtdiskriminierung (Art. 20-21). Der EPRS-Bericht greift die Punkte der FRA auf und kommt zu dem Schluss, dass beim KI-Einsatz auch 5 Jahre später die Grundrechte der Asylsuchenden nicht gewahrt werden können. 

KI ist weder neutral noch zuverlässig 

Im Fall der Dialekterkennung kann ein KI-System nur dann korrekte Ergebnisse liefern, wenn es für jedes mögliche Herkunftsland mit sehr vielen Dialektdaten trainiert worden ist. Der EPRS-Bericht stellt jedoch fest, dass die Datenbasis dünn und noch dazu sehr ungleich verteilt ist. Die Ergebnisse der KI seien daher nicht aussagekräftig genug für Entscheidungen mit potenzieller Todesfolge. Hinzu komme, dass KI-Systeme aus menschlichen Entscheidungen bei vorausgegangenen Asylverfahren lernen und diese replizieren. Dabei würden auch Vorteile und Fehlentscheidungen reproduziert und verstärkt. Beim Dialekterkennungssystem, das vom BAMF eingesetzt wird, ist außerdem die Fehlerquote sehr hoch: Es ordnet 2 von 10 asylsuchenden Menschen mit arabischem Dialekt und 3 von 10 mit persischem Dialekt das falsche Herkunftsland zu. 


0 Kommentare
Das Eingabefeld enthält noch keinen Text oder nicht erlaubte Sonderzeichen. Bitte überprüfen Sie Ihre Eingabe, um den Kommentar veröffentlichen zu können.
Noch keine Kommentare - teilen Sie Ihre Sicht und starten Sie die Diskussion