KI und Migration

Weltweit werden zunehmend digitale Technologien (weiter-)entwickelt und eingesetzt, um Migrationsbewegungen vorherzusagen, Grenzen gegen unerwünschte Migration abzuschirmen  und Asylgesuche zu prüfen. Algorithmen und künstliche Intelligenz spielen dabei eine immer größere Rolle. Aus menschenrechtlicher Sicht ist die zunehmende Technologisierung des Rechts auf Asyl zumindest kritisch zu bewerten, wenn Geflüchtete davon abgehalten werden, sichere Aufnahmeländer zu erreichen oder wenn Entscheidungsprozesse im Asylverfahren auf intransparenten und fehleranfälligen automatisierten Systemen basieren.

Auf internationaler Ebene waren solche Technologien bereits Gegenstand von zwei Papieren von Amnesty International, den Briefings „Primer: Defending the Rights of Refugees and Migrants in the Digital Age“ und „The Digital Border“.

In Deutschland sind zu diesem Themenkomplex folgende Systeme im Einsatz:

Dialekterkennung mit Künstlicher Intelligenz

Bereits seit einigen Jahren nutzt Deutschland als einziges Land weltweit automatisierte Sprach- und Dialekterkennung in Asylverfahren. Beim Einsatz der Sprachbiometrie müssen Asylsuchende ca. zwei Minuten in ihrer Muttersprache ein Bild beschreiben und dabei in ein Telefon sprechen. Was sie sagen, wird aufgezeichnet. Die Sprechproben werden anschließend automatisch mit einem Sprachmodell abgeglichen. So werden Wahrscheinlichkeiten für den gesprochenen Dialekt berechnet und in einem Ergebnisbericht festgehalten.

Im ersten Halbjahr 2022 führte das Ergebnis der Dialekterkennung bei Erstantragstellenden ohne Pass/Passersatz dazu, dass in rund 76 Prozent der Fälle die Angaben zur Identität der Antragstellenden gestützt und in rund 24 Prozent der Fälle Angaben nicht gestützt werden konnten.

Die Erkennungsquote der arabischen Dialekte wird in Gesamttests gemessen. Von 2017 bis 2020 lag die Erkennungsquote für die arabischen Dialekte bei rund 80 Prozent. Durch erstmalige Trainings der Sprachmodelle im Jahr 2021 erreichen die arabischen Dialekte aktuell eine Erkennungsquote von rund 85 Prozent. Die kürzlich neu eingeführten persischen Sprachmodelle (Dari und Farsi) erreichen eine Erkennungsquote von 73,07 Prozent, Paschtu eine Erkennungsquote von 77,7 Prozent. Damit liefert die Software bei jeder fünften Person ein falsch positives oder falsch negatives Ergebnis.

Das Personal des Bundesamtes für Migration und Flüchtlinge (BAMF) erhält ein Training zur Verwendung der Software. Es ist aber aufgrund des sog. Automation Bias (der menschlichen Angewohnheit, Computerentscheidungen übermäßig zu vertrauen) wahrscheinlich, dass die Ergebnisse überbewertet bei der Entscheidungsfindung werden.

Assistenzsystem für Sicherheitsmeldungen

Seit 2022 ist das „Assistenzsystem für Sicherheitsmeldungen“  (ASS) beim BAMF im Einsatz. Mittels künstlicher Intelligenz soll der Text von Anhörungsprotokollen gescannt werden und dann Angestellte des BAMF per E-Mail benachrichtigt werden, wenn sicherheitsrelevante Informationen gefunden wurden. Diese entscheiden dann, ob die Informationen gegenüber dem Verfassungsschutz meldepflichtig sind. Darüber, was relevant ist, gibt es kaum öffentlich zugängliche Informationen. Dass die Anhörungsprotokolle durch Algorithmen gerastert  werden, merken die Asylbewerber*Innen nicht, es gibt vorher keine Hinweise darauf. Geflüchtete geben bei der Asylanhörung oft sehr persönliche Details preis und haben keine Kontrolle darüber, was mit ihren Daten geschieht. Die Nutzung des Systems stellt somit einen gravierenden Eingriff in die informationelle Selbstbestimmung der Geflüchteten dar.

Identitätsfeststellung mit Hilfe von Handy- und Clouddaten

Seit 2017 darf das BAMF gemäß § 15a AslyG die Datenträger von Geflüchteten (also insbesondere Handydaten) zur Identitätsfeststellung auswerten. Wenn eine geflüchtete Person keine amtlichen Dokumente zur Identitätsfeststellung vorlegt, kann das BAMF Datenträger auslesen und nach Zugangsdaten fragen. Diese Auswertung erfolgt automatisiert.

Zunächst wurde diese Praxis anlasslos betrieben, seit einem Urteil des Bundesverwaltungsgerichts vom Februar 2023 gelten strengere Anforderungen an die Verhältnismäßigkeit der Maßnahme. Mit dem im Februar 2024 vom Bundestag beschlossenen „Rückführungsverbesserungsgesetz“  wurden die Anforderungen an die Verhältnismäßigkeit weiter präzisiert, die durchsuchbaren Bereiche aber ausgewertet. Nun dürfen explizit auch Cloud-Speicher von den Behörden ausgewertet werden.

 

Menschenrechtliche Relevanz

Der Entscheidungsprozess innerhalb der Asylbeantragung ist für den Schutz von Asylbewerber*Innen von entscheidender Bedeutung. Bei einer Anhörung vor dem BAMF müssen sie ihre Herkunft und auch ihre Glaubwürdigkeit nachweisen.

Immer häufiger werden KI-Systeme eingesetzt oder geplant, die zusätzlich zu den Angaben während der Anhörung zur Entscheidungsfindung herangezogen werden, meistens ohne Wissen der Angehörten. Das Recht auf Privatsphäre kann dabei erheblich verletzt werden.

Werden Asylanträge aufgrund von automatisierten falschen Entscheidungen abgelehnt,  kann eine Abschiebung in das Herkunftsland oder in ein früheres Transitland erfolgen, wo die Menschen sozial ausgegrenzt bleiben. Im Extremfall betrifft es das Recht auf körperliche Unversehrtheit durch Verfolgung, Inhaftierung und Folter im Ursprungsland.

14. August 2024