Forderungen

Die Richtlinien der inhaltlichen Arbeit im Thema KI und Menschenrechte für Amnesty, inklusive der Forderungen an Staaten und Unternehmen, wurden in der Toronto Erklärung, die Amnesty International gemeinsam mit der Bürgerrechtsbewegung Access Now erarbeitet hat, zusammengefasst. Viele weitere Erklärungen nationaler oder internationaler Organisationen, insbesondere der von der EU Kommission vorgeschlagene Artificial Intelligence Act und die UNESCO Recommendations on the Ethics of AI formulieren sehr ähnliche Forderungen (mehr Information zur Toronto Erklärung finden sich auch im nächsten Kapitel). Wir haben im Folgenden die wichtigsten Forderungen für euch zusammengefasst.

KERNFORDERUNGEN

Methoden der Künstlichen Intelligenz werden oftmals eingesetzt, um bislang Menschen vorbehaltene Entscheidungen zu automatisieren. Durch diese weitgehende Automatisierung betreffen die Algorithmen potentiell Milliarden von Menschen. Automatisierte Menschenrechtsverletzungen stellen in dieser Form eine historisch neue Bedrohung dar. Amnesty fordert deshalb bei der Entwicklung folgende rote Linien nicht zu überschreiten:

  • Verbot autonomer Waffen: KI-gesteuerte autonome Waffen bergen die Gefahr eines neuen Rüstungsweglaufs. Sie stellen für alle Menschen eine Bedrohung des Rechts auf Leben und körperlicher Unversehrtheit dar. Bei Fragen um Leben und Tod sollten immer Menschen die Kontrolle behalten. Angesichts der aktuellen weltpolitischen Konfrontationen mag diese Forderung unrealistisch erscheinen, doch auch biologische und chemische Waffen konnten in internationalen Vereinbarungen weitestgehend eingehegt werden.
  • Verbot von Massenüberwachung: Gesichtserkennung und andere biometrische Analysen bedrohen das Recht auf Versammlungsfreiheit, freie politische Meinungsäußerung und Gewerkschaftsbildung. Neben Staaten sollten auch private Firmen wie ClearView und PimEyes rechtlich verpflichtet werden, diese Technologieentwicklung zu stoppen.
  • Verbot eines umfassenden Social Scoring: Durch die Erfassung und Bewertung nahezu aller Lebensäußerungen ist eine freie Persönlichkeitsentfaltung nicht mehr möglich.

Amnesty begrüßt deshalb das Vorhaben der EU in der neuen KI-Verordnung Schadensklassen von Algorithmen zu definieren, die in der höchsten Kritikalitätsstufe Verbote vorsieht. Die EU sollte dabei aber autonome Waffen nicht außen vor lassen und auch die Massenüberwachung explizit verbieten. Zu begrüßen ist auch, dass China sich in der UNESCO-Erklärung verpflichtet hat, auf ein umfassendes Social Scoring zu verzichten. Die bislang bekannt gewordenen Pläne sollten deshalb überdacht und weitgehend abgeschwächt werden. Die USA und Israel sollten als wichtige Herstellerländer von Hard- und Software trotz ihres Austritts aus der UNESCO die Selbstverpflichtung der anderen Staaten übernehmen.

Neben den oben genannten roten Linien ist zudem zu beachten, dass etablierte Menschenrechtsstandards durch KI nicht unterminiert werden.

  • Diskriminierungsverbot: Automatisierte Diskriminierung birgt die Gefahr unbemerkt abzulaufen und aufgrund des Black-Box-Charakters der KI-Modelle nicht vorhersehbar zu sein. Es ist deshalb wichtig im ganzen Lebenszyklus der Softwareentwicklung die Auswirkungen sorgfältig zu prüfen und in sensiblen Bereichen unabhängige Prüfinstrumente zu entwickeln.
  • Schutz der Privatsphäre: Durch neue leistungsfähige Inferenzmethoden und die Fülle an verfügbaren Daten kann das Verbot der Verarbeitung sensibler persönlicher Daten unterlaufen werden, indem aus Gruppendaten auf sensible Merkmale einzelner Personen zurück geschlossen wird. Selbst zu bestimmen, wer was wann über mich weiß, wird dadurch praktisch unmöglich und kann nur noch rechtlich geregelt werden. Forschung, Hersteller und Gesetzgeber sollten für solche Gefahren sensibilisiert werden um rechtzeitig gegensteuern zu können.
  • Transparenz bei menschenrechts-relevanten Anwendungen: Bei kritischen Anwendungen darf der Schutz von Geschäftsgeheimnissen und wirtschaftlichen Interessen nicht zulasten des Schutzes der Menschenrechte gehen. Amnesty begrüßt deshalb die Bemühungen der UNESCO und der EU hier neue Transparenzregeln zu definieren und zumindest der Forschung Zugang zu Daten und Algorithmen zu gewähren. Die Kompetenzen von NGOs sollten dabei Berücksichtigung finden.
23. April 2022