Im Vergleich zu Ländern wie den USA steckt der Einsatz von Algorithmen bei der Kriminalprävention in Deutschland zwar noch in den Kinderschuhen. Doch Bundesland für Bundesland zieht Prognosesoftware auch hierzulande ein: SKALA, HessenDATA oder PRECOB heißen die “neuen Kollegen” in Deutschlands Polizeibehörden.
Sie sollen berechnen, mit welcher Wahrscheinlichkeit an einem Ort oder durch eine bestimmte Person ein Verbrechen begangen werden könnte, aber auch, welchen Fluchtweg ein*e Täter*in möglicherweise nehmen wird. Eine Vielzahl öffentlich verfügbarer (etwa Social Media) oder polizeilich erhobener Daten wird dafür zusammengeführt und nach Regeln verarbeitet, in die der Mensch vor dem Computer oft nur noch wenig Einsicht hat.
Damit stellen sich neue Fragen sowohl bezüglich der Effektivität der Programme als auch ihrer Auswirkungen auf die Menschenrechte. Betroffen sind beispielsweise die Menschenrechte auf Privatsphäre und informationelle Selbstbestimmung, das Recht auf Nichtdiskriminierung, auf ein faires Verfahren und einen wirksamen Rechtsbehelf. Welche Risiken gehen aus Sicht von Amnesty International für den Schutz dieser Rechte mit dem Einsatz „smarter“ Technik einher? Gibt es möglicherweise auch menschenrechtliche Chancen? Wie kann den Risiken begegnet werden und welchen Regeln sollte Prognosesoftware in ihrer Funktionsweise und bei ihrem Einsatz unterliegen?