Die potentiellen negativen Auswirkungen von KI Systemen sollten bereits im Entwicklungsprozess bedacht werden. Zwei Hürden bestehen dabei darin, dass es in der Praxis oft schwierig ist Gefahren/Probleme vor dem Einsatz der KI-Systeme zu erkennen und nach dem Einsatz aufkommende Probleme zu ihrem Ursprung zurückzuverfolgen.
Der Ursprung für negative menschenrechtliche Auswirkungen von KI können im Rahmen der Entwicklung unter anderem zurück geführt werden auf:
- Voreingenommenheit (BIAS) der KI Entwickler/Firma und nicht mangelnde Kenntnisse über den menschenrechtlichen Einfluss von KI;
- Die der KI zugrunde liegende Problemstellung ist in sich menschenrechtlich problematisch;
- Die zum Training bzw. der Erstellung der KI verwendeten Trainingsdaten, die unter den Trainingsdaten hergestellten Korrelationen sowie die zugrundeliegenden KI Grundmodelle sind nicht geeignet um auf ihrer Basis eine Entscheidung für die Zukunft zu treffen;
- Blindes Vertrauen daran das Entscheidung einer KI (Technik) der menschlichen Entscheidung überlegen ist;
- Die Auditierung und Qualitätssicherung von Software/KI-Produkten beschränkt sich auf die Überprüfung der Einhaltung technischer bzw. wirtschaftlicher Standards. Die Einhaltung ethischer Standards wird nicht überprüft;
- Keine bzw. nicht ausreichende Qualitätsstandards (z. B. ISO) die menschenrechtliche Kriterien die eine Software/KI erfüllen muss berücksichtigen;
- Die KI sowie die verwendeten Trainingsdaten sind als vertrauliche Betriebsgeheimnisse eingestuft und deswegen nicht durch eine externe, unabhängige Stelle überprüfbar/auditierbar.
Eine Berücksichtigung von menschenrechtlichen/ethischen Kriterien bereits im Entwicklungsprozesses könnte dazu beitragen menschenrechtsfeindliche Auswirkungen der KI zu reduzieren bzw. zu vermeiden. Im folgenden sollen Maßnahmen die in de verschiedenen Stadien des Entwicklungsprozess ergriffen werden können aufgeführt:
- PLANUNGSPHASE: Festlegung von Anforderungen
- Einsatz von diversen und interdisziplinären Entwicklerteams in der KI Entwicklung (unterschiedliche BIAS)
- Überprüfen der Anforderungen an der KI auf menschenrechtliche Auswirkungen.
- ENTWICKLUNGSPHASE (Festlegung der Softwarearchitektur; Coding)
- Verwendeten Code (Eigen Entwicklung; Code von Dritten z. B. OSS) an während der Planungsphase festgelegten menschenrechtlichen Anforderungen spiegeln;
- Beachten von Datenschutzrichtlinien und – vorgaben bei der Auswahl und Verwendung der Trainingsdaten;
- TESTPHASE (Prototypentest; Zertifizierung, Audit)
- Berücksichtigung von Menschenrechten in Standards zur Auditierung von KI
- Einrichtung/Beauftragung unabhängiger Zertifizierungs-/Prüfstellen zur Evaluierung von KI nach menschenrechtlichen Standards
- DEPLOYMENT/EINSATZPHASE (Ausrollen der Software)
- Prüfung ob Einsatz von KI im jeweiligen Einsatzfall menschenrechtlich unbedenklich ist.