Gesichtserkennung

„Wir leben bereits in einer Zeit potenziell vollständiger Überwachung der elektronischen Kommunikation. In manchen Ländern müssen Menschenrechtsverteidiger_innen […] dem gezielten Ausspähen ihrer elektronischen Geräte rechnen. Gesichtserkennung schließt den für viele Menschen letzten überwachungsfreien Rückzugsraum – die öffentlichen Straßen und Plätze“, erklärt Lena Rohrbach, Expertin für Menschenrechte und Digitalisierung bei Amnesty in Deutschland. „In Kombination mit Informationen aus der Kommunikationsüberwachung kann dies ein vollständiges Bild unseres gesamten Alltags ergeben.“

Bei der Gesichtserkennung, dem zurzeit weitverbreitetsten Verfahren, werden Aufnahmen von Gesichtern, die aufgrund von anlassloser Überwachung ohne Zustimmung der Menschen von öffentlichen Straßen und Plätzen erzeugt werden, mit großen Fotodatenbanken, die z.B. von Meldebehörden oder Polizeiregistern stammen abgeglichen. Häufig werden zusätzlich Millionen Bilder ohne Einwilligung der Betroffenen aus Social-Media-Profilen zusammengetragen.

Diese Verfahren ermöglichen es, den Standort einer beliebigen Person jederzeit zu erkennen und nachzuverfolgen. Dies verletzt das Recht auf Privatsphäre (Art. 12 AEMR) und hat unmittelbare Konsequenzen für weitere Menschenrechte wie das Recht auf freie Meinungsäußerung (Art. 19 AEMR) oder das Recht auf Versammlungs- und Vereinigungsfreiheit (Art 20 AEMR), da es beispielsweise Menschen davon abhalten kann an öffentlichen Meinungskundgebungen teilzunehmen.

Amnesty setzt sich gegen anlasslose Gesichtserkennung ein und unterstützt die Kampagne

https://gesichtserkennung-stoppen.de/

und die europäische Kampagne

https://reclaimyourface.eu/

und fordern zur Unterzeichnung der Petition auf.

Immer mehr Ländern wenden biometrische Scanverfahren wie die Gesichtserkennung an, zur Überwachung des öffentlichen Raums, zur Identifizierung von Verdächtigen, aber auch zur Verfolgung von Demonstrierenden und Menschenrechtsverteidiger_innen.

 

Warum wollen wir Gesichtserkennung verbieten?

Falsch­erkennung: Die Systeme funktionieren mangelhaft. Beim Test am Bahnhof Berlin-Südkreuz wurde ca. jede 200. Person fälschlich als gesuchte Person erkannt. Für Betroffene führt das zu unangenehmen Kontrollen, für die Polizei zu einer Überlastung durch Fehlalarme.

Einfache Umgehung: Dreht eine gesuchte Person ihr Gesicht nur um 15 Grad von den Kameras weg, wird sie von den Systemen nicht mehr erkannt. Wer eine Straftat plant, kann sich einfach vor Erkennung schützen.

Diskriminierung: Gesichtserkennung diskriminiert Frauen, Kinder und People of Colour. Bei diesen Gruppen liegen die Falscherkennungsraten signifikant höher als bei weißen Männern. Die negativen Folgen treffen also besonders Gruppen, die ohnehin schon Benachteiligungen ausgesetzt sind.

Gefahr für die Demokratie: Selbst wenn Gesichtserkennung perfekt funktionieren würde: Sie wäre dann in der Lage, ganze Stadtgebiete zu überwachen und die Identität von Zehn- oder Hunderttausenden von Menschen gleichzeitig zu erfassen. Durch das ständige Gefühl, überwacht zu werden, leiden Freiheitsrechte, individuelle Entfaltung und politische Teilhabe.

Missbrauchs­potential: Gesichtserkennung birgt enormes Missbrauchspotential für Unbefugte und etwaige zukünftige autoritäre Regierungen. Zivilgesellschaftliches Engagement gegen eine Regierung, die exakt weiß, wer wann wo ist, ist nur schwer denkbar.

Weitere Verfahren sind z.B. die Ganganalyse, die es ermöglicht, vermummte Menschen zu identifizieren, sowie Verfahren die  biometrische Daten (z. B. durch Fingerabdruck oder einen Irisscan) erfassen und analysieren.

Auch in Deutschland gab es wiederholt Vorhaben, Gesichtserkennung einzuführen, etwa für die Überwachung deutscher Flughäfen und Bahnhöfe und im Rahmen der aktuellen Reform des Bundespolizeigesetzes. Diese wurden – nach viel Kritik – bis auf weiteres eingestellt.

Amnesty stellt sich nicht allgemein gegen technologische Innovationen. Schon 2011 schrieb unser damaliger Salil Shetty im Amnesty Report 2011 unter der Überschrift „Eine digitale Zukunft für die Menschenrechte“:

„Technologie ist weder grundsätzlich gut noch schlecht für die Menschenrechte. Sie ist ein Werkzeug, das beide Seiten benutzen, sowohl diejenigen, die Ungerechtigkeiten überall auf der Welt anprangern wollen, als auch diejenigen, die den Zugang zu Informationen kontrollieren und kritische Stimmen unterdrücken wollen.“

Amnesty vertritt daher die Position, dass Gesichtserkennung im öffentlichen Raum nicht verhältnismäßig eingesetzt werden kann, da sie jeden Menschen erfasst und analysiert, unabhängig davon, ob ein begründeter Verdacht vorliegt.

Der Einsatz von Gesichtserkennung leistet zudem strukturellem Rassismus Vorschub, da People of Colour häufig am stärksten von ihrem Einsatz betroffen sind. Schwarze Menschen laufen darüber hinaus eine deutliche höhere Gefahr, von Gesichtserkennungssystemen fehlerhaft „identifiziert“ zu werden und unschuldig ins Visier von Strafverfolgungsbehörden zu geraten. Auch Frauen sind häufiger von Fehlidentifizierungen betroffen. Matt Mahmoudi, Experte für künstliche Intelligenz und Menschenrechte bei Amnesty International fasst zusammen, dass „die Gefahr [besteht], dass Gesichtserkennungstechnologie von Strafverfolgungsbehörden auf der ganzen Welt gegen marginalisierte Gemeinschaften eingesetzt wird. Von Neu-Delhi bis New York setzt diese invasive Technologie unsere eigene Identität gegen uns ein und untergräbt unsere Menschenrechte“

Amnesty hat vor diesem Hintergrund die Kampagne „Ban the Scan“ ins Leben gerufen, die fordert, Gesichtserkennungstechnologie zu verbieten und Betroffenen und Aktivist_innen Ressourcen an die Hand gibt, um gegen den Einsatz von Gesichtserkennung aktiv zu werden. Auch die Themenkoordinationsgruppe „Menschenrechte im digitalen Zeitalter“ begleitet das Thema und die Kampagne intensiv.

4. September 2021