“Ein Todesurteil für meinen Vater“: Bericht zu Metas Verantwortung in Tigray

In einem neuen Bericht schildert Amnesty International die Rolle der Plattformen von Meta bei Menschenrechtsverletzungen in der nordäthiopischen Region Tigray. Wie bereits bei vergangenen Konflikten (etwa in Myanmar) versäumte es der Konzern, Hassposts vom Netz zu nehmen; seine Algorithmen befeuerten vielmehr die Reichweite des Hasses. Der englischsprachige Bericht “A death sentence for my father: Meta’s contribution to human rights abuses in northern Ethiopia” ist hier abrufbar.

Die Zusammenfassung (“Executive Summary”) des Berichts ins haben wir Deutsche übersetzt und stellen ihn hier zur Verfügung. Wir freuen uns, wenn er weiter verbreitet wird.

Als PDF kann die Zusammenfassung hier heruntergeladen werden.

„Ein Todesurteil für meinen Vater“
Metas Beteiligung an Menschenrechtsverstößen in Nord-Äthiopien

Zusammenfassung

“Ich wusste, dass es ein Todesurteil für meinen Vater sein würde”, sagte Abrham Meareg gegenüber Amnesty International und beschrieb seine Reaktion auf die Posts auf der Facebook-Plattform, die seinen Vater, Professor Meareg Amare, aufgrund seiner tigrayischen Identität angriffen. Die Einträge enthielten Namen, Foto und den Arbeitsplatz von Professor Meareg Amare und enthielten Behauptungen über seine Zugehörigkeit zur Tigray People’s Liberation Front (TPLF).

Leider lag Abrham mit seinen Befürchtungen richtig. Einige Wochen nach der Verbreitung der Posts – und trotz Abrhams wiederholten Versuchen, sie über die Meldefunktion von Meta löschen zu lassen – wurde Professor Meareg Amare am 3. November 2021 vor seinem Haus getötet.

Am 4. November 2020 brach in der äthiopischen Region Tigray ein bewaffneter Konflikt aus zwischen Gruppierungen, die der äthiopischen Zentralregierung nahestehen und solchen, die der Regionalregierung von Tigray nahestehen. Dieser Konflikt griff später auf die benachbarten Regionen Amhara und Afar aus. Der Konflikt war von extremer Brutalität gegen die Zivilbevölkerung gekennzeichnet, ausgeübt von allen Konfliktparteien. Eine Woche nach Ausbruch des Konflikts veröffentlichte Amnesty International einen Bericht, aus dem hervorging, dass zahlreiche Zivilisten in der Stadt Mai-Kadra im westlichen Tigray getötet wurden.

Amnesty International und Human Rights Watch stellten außerdem fest, dass Kriegs­verbrechen und Verbrechen gegen die Menschlichkeit, einschließlich Verbrechen der ethnischen Säuberung in der westlichen Tigray-Region begangen wurden. Akteure waren Sicherheitskräfte aus der benachbarten Amhara-Region mit Duldung und möglicherweise unter Beteiligung der äthiopischen Streitkräfte

Dieser Gewaltausbruch hatte verheerende Auswirkungen auf die Zivilbevölkerung in den Gebieten, in denen es zu Kampfhandlungen kam: in Nordäthiopien, einschließlich der Region Tigray. Schätzungen zufolge hatte der Konflikt den Tod von bis zu 600.000 Zivilisten zur Folge. Millionen wurden innerhalb des Landes vertrieben, und schätzungsweise 70.000 Menschen, die geflohen sind, leben jetzt in Flüchtlingslagern im Ostsudan.

Während des Konflikts wurde in Äthiopien Facebook (im Besitz von Meta) mit Inhalten überschwemmt, die zu Gewalt aufriefen und Hass befürworteten. Die Inhalte, die auf die tigrayische Gemeinschaft abzielten, waren besonders ausgeprägt. Der äthiopische Premierminister Abiy Ahmed, regierungsfreundliche Aktivisten sowie regierungsnahe Nachrichtenseiten posteten Inhalte, die Hass anstachelten und zu Gewalt und Diskriminierung gegen die Tigray-Bevölkerung aufriefen und die Vermutung verbreiteten, dass selbst die Tigray-Zivilbevölkerung eine Bedrohung für die Stabilität und Sicherheit Äthiopiens darstellte. Die massenhafte Verbreitung dieser Botschaften, die zu Gewalt und Diskriminierung aufriefen, sowie anderer entmenschlichender und diskriminierender Inhalte, gossen Öl ins Feuer einer bereits mit erheblichen ethnischen Spannungen polarisierten Gesellschaft.

Die schnelle Verbreitung dieser Nachrichten wurde durch das überwachungsbasierte Geschäftsmodell von Meta ermöglicht, das auf dem Sammeln, Analysieren und Profitieren von Personendaten basiert und “Engagement” (emotionale Betroffenheit) um jeden Preis begünstigt. Dieses Geschäftsmodell beruht darauf, Anreize dafür zu schaffen, dass Menschen so lange wie möglich auf der Plattform bleiben, damit immer mehr Daten über sie gesammelt werden, um diese dann für gezielte Werbung nutzen zu können. Um dieses Ziel zu erreichen, sind die Algorithmen von Meta darauf ausgerichtet, das Engagement zu maximieren und Inhalte zu fördern, die oft aufrührerisch und spalterisch sind, da sie die meiste Aufmerksamkeit auf sich ziehen. Im Zusammenhang mit dem Nordäthiopien-Konflikt haben diese Algorithmen verheerende Auswirkungen auf die Menschenrechte gehabt, indem sie auf Facebook, der beliebtesten Social-Media-Plattform Äthiopiens, Inhalte verstärkt haben, die sich gegen die Tigray-Gemeinschaft richteten – darunter auch Inhalte, die zu Hass und Gewalt, Feindseligkeit und Diskriminierung aufriefen.

Auch äthiopische Journalist*innen und Forscher*innen sahen sich auf Facebook einer Flut von Hass ausgesetzt, die sich gegen sie richtete, nur weil sie ihre Arbeit machten und über den bewaffneten Konflikt berichteten.

Die äthiopische Journalistin Lucy Kassa berichtete Amnesty International, dass sie nach Nairobi geflohen war, nachdem sie nach ihren Berichten über Menschenrechts-Verletzungen durch die Regierungstruppen in Tigray mit Posts bedacht wurde, die zu Gewalt gegen sie aufriefen. Aber auch in Kenia war sie nicht vor den gefährlichen Auswirkungen von Metas Algorithmen sicher. Nachdem sie über einen möglichen Brandwaffenanschlag in Tigray berichtet hatte, wurde sie erneut zur Zielscheibe, diesmal von einem Regierungs-Account mit Hunderttausenden von Followern. Ihr Foto wurde gepostet und ihre Verhaftung gefordert. Der Beitrag wurde tausende Male geliked und kommentiert. Lucy erklärte gegenüber Amnesty International: “Die Regierung und einflussreiche Aktive riefen zur Gewalt gegen mich auf und sagten, ich solle gesteinigt werden und die Regierung solle “etwas” gegen mich tun. Es war also nicht mehr sicher für mich in Nairobi.

Lucy war gezwungen, erneut zu fliehen, und erzählte Amnesty International, dass es lange dauerte, bis sie die Auswirkungen der Online-Gewalt auf ihre psychische Gesundheit verarbeiten konnte. Im April 2020, vor dem Ausbruch des bewaffneten Konflikts in Nord-Äthiopien, wies der UN-Sonderberichterstatter für die Förderung und den Schutz des Rechts auf Meinungsfreiheit und freie Meinungsäußerung auf die Bedeutung der Facebook-Plattform für das Informationsökosystem Äthiopiens hin und riet, dass “[Meta]…seiner dort wachsenden Nutzerbasis mehr Unterstützung bieten sollte, um sicherzustellen, dass die Plattform die Meinungsäußerung der Menschen fördert, anstatt zu einem Werkzeug für die Verbreitung von Hass und Desinformation zu werden.”

Im Oktober 2023 kam die von den Vereinten Nationen eingesetzte Internationale Menschenrechts-Expertenkommission für Äthiopien (ICHREE – International Commission of Human Rights Experts on Ethiopia) in ihrem Abschlussbericht zu dem Schluss, dass “die Verbreitung von Hassreden in Äthiopien, insbesondere im Internet, Spannungen in der Bewölkerung schürte und ein Klima schuf, in dem Einzelne und Gruppen zur Zielscheibe von Aufwiegelung und Anstachelung zur Gewalt wurden”.

Die ICHREE empfahl, da “das volle Ausmaß, in dem Hassreden sowie Fehlinformationen und Desinformationen im Internet zu Diskriminierung und Gewalt in Äthiopien beigetragen oder diese verschlimmert haben – sowohl während des Konflikts als auch in der Gegenwart – eine weitere unabhängige Untersuchung sattfinden sollte, damit geeignete Lehren gezogen werden können, um eine Wiederholung in Zukunft zu verhindern.” Dieser Amnesty-Bericht bietet genau eine solche unabhängige Untersuchung der Rolle von Meta bei den Gewaltausbrüchen.

Interne Dokumente im Rahmen der Facebook Papers – einer Reihe von Dokumenten, die von einer ehemaligen Meta-Managerin im Jahr 2021 veröffentlicht wurden – zeigen, dass Meta während des Konflikts im Norden Äthiopiens wusste, dass das Unternehmen zu Menschenrechts-Verletzungen in dem Land beitragen konnte. Es hatte aber versäumt, diese Risiken angemessen zu mindern, obwohl das Land vom Unternehmen als eines mit Priorität eingestuft wurde. Ein internes Dokument aus dem Jahr 2021 bezeichnete Äthiopien als ein Land, in dem das Risiko von Gewalt “schlimm” sei. Und in seiner Bewertung der Reaktion des Unternehmens auf gewaltvolle und aufstachelnde Inhalte stufte es seine eigenen Kapazitäten in dem Land mit null von drei Punkten ein. In einem anderen Dokument räumte ein*e Meta-Mitarbeiter*in ein, dass es dem Unternehmen im Vorfeld der Wahlen in Äthiopien im Jahr 2021 an “menschlichen Überprüfungskapazitäten” fehle. Im Laufe des Konflikts schlugen zivilgesellschaftliche Gruppen und Expert*innen für digitale Rechte Alarm wegen des Risikos, dass die Facebook-Plattform zu Menschenrechts-Verletzungen gegen die Tigray-Gemeinschaft in Äthiopien beitragen würde. Dieser Bericht geht auf ihre Bedenken und Vorwürfe ein und liefert eine eingehende Analyse der Rolle, die Meta bei den ungeheuerlichen Menschenrechts-Verletzungen und -verstöße gegen die Tigray-Gemeinschaft in den Jahren 2020 bis 2022 gespielt hat, sowie der Verantwortung von Meta, künftige Schäden in Äthiopien zu verhindern oder zu mindern. Trotz der Einstellung der Feindseligkeiten zwischen der äthiopischen Regierung und der TPLF ist Äthiopien weiterhin ein konfliktbeladenes Land.

Gelila, die bei einer äthiopischen Nichtregierungsorganisation arbeitet und während des Nordäthiopienkonflikts Teil des “Trusted Partner”-Programms von Meta war, betonte die hohe Wahrscheinlichkeit, dass die Facebook-Plattform ohne sofortige Reformen ihres Betriebs zu weiteren Menschenrechts-Verletzungen beitragen würde:

“Als jemand, der lange Zeit in Äthiopien gelebt hat, kann ich sagen, dass Facebook die Bevölkerung anfälliger für Konflikte untereinander macht.“

„Trusted Partner“ ist eine Initiative, die darauf abzielt, ausgewählten zivilgesellschaftlichen Gruppen einen bestimmten Kanal zur Verfügung zu stellen, um Meta auf schädliche Inhalte auf seinen Plattformen aufmerksam zu machen.

Der Bericht stellt dar, wie Meta durch seine inhaltsgestaltenden Algorithmen und sein datenhungriges Geschäftsmodell zu den schweren Menschenrechts-Verletzungen und -Verstößen gegen die Tigray-Bevölkerung beigetragen hat. Es wird deutlich, dass Meta Warnungen von Akteur*innen der Zivilgesellschaft ignorierte und selbst nach Ausbruch des Konflikts keine angemessenen Maßnahmen zur Schadensbegrenzung ergriff. Diese Versäumnisse in Verbindung mit Algorithmen zur Verbreitung von Inhalten, die dazu dienen, das Engament zu erhöhen führten dazu, dass Facebook mit Inhalten überschwemmt wurde, die Hass befürworteten und damit zu Gewalt, Feindseligkeit und Diskriminierung gegen die Tigray-Bevölkerung aufriefen.

Der Beitrag von Meta zu Menschenrechts-Verletzungen in Äthiopien erfolgte drei Jahre nach den Gräueltaten gegen die Rohingya in Myanmar im Jahr 2017, zu denen Facebook maßgeblich beigetragen hatte. Die Tatsache, dass Meta erneut zu Menschenrechts-Verletzungen beigesteuert hat, ist ein weiterer Beweis dafür, dass das Geschäftsmodell, das auf invasiver Profilerstellung und personalisierter Werbung basiert, die Verbreitung gefährlicher Inhalte fördert. In dem ständigen Streben nach immer mehr Daten priorisieren die algorithmischen Systeme von Meta die höchst aufrührerischen, spaltenden und schädlichen Inhalte, die zu einer Maximierung des Engagements führen sollen.

Ein typisches Beispiel für Inhalte, die sich gegen die Tigray-Gemeinschaft richteten, war ein Post von Premierminister Abiy Ahmed im Juli 2021, in dem er die tigrayischen Kräfte als “Unkraut” und “Krebsgeschwür” bezeichnete. Im Oktober 2023 war der Beitrag immer noch auf Facebook zu sehen. Der Beitrag wurde über 8.000 Mal geteilt und erhielt Tausende von Kommentaren, wie zum Beispiel: “Lasst den Feind vernichten. Äthiopien kommt zuerst”. Es ist höchst bezeichnend, dass der Premierminister selbst die Facebook-Plattform nutzte, um Inhalte zu posten, die zu Hass und Diskriminierung gegen die tigrayische Gemeinschaft aufstachelten. Meta hat zwar schon früher erklärt, dass es nicht darüber entscheiden will, ob die Äußerungen eines Politikers angemessen sind oder nicht, doch hat das Unternehmen auch eingeräumt, dass Inhalte, die zu Gewalt aufstacheln können, ein Sicherheitsrisiko darstellen können, das das öffentliche Interesse überwiegt.

Vor und während des Konflikts in Nordäthiopien forderten Aktive der Zivilgesellschaft und Expert*innen für digitale Rechte Meta wiederholt auf, Maßnahmen zu ergreifen, um aufkommende Risiken zu bekämpfen. Dieser Bericht dokumentiert die wiederholten Mitteilungen und Interventionen, die Meta zwischen 2019 und 2022 erhalten hat, auch von seinem eigenen Aufsichtsgremium. Trotz dieser Bemühungen und der Tatsache, dass das Unternehmen zu schweren Verstößen gegen die Rohingya in Myanmar beigetragen hat, hat Meta diese Warnungen nicht beachtet und sie nicht einmal angemessen zur Kenntnis genommen.

Darüber hinaus waren die völlig unzureichenden Investitionen von Meta in die Moderation äthiopischer Inhalte vor und während des Nordäthiopienkonflikts ein wesentlicher Faktor dafür, dass das Unternehmen schädliche Inhalte, die sich gegen die Tigray-Bevölkerung richteten, nicht von der Plattform entfernte. Obwohl in Äthiopien 85 Sprachen gesprochen werden, ist Meta nur in der Lage, Inhalte in vier dieser Sprachen zu moderieren. Dies ist ein Hinweis auf das allgemeine Versäumnis des Unternehmens, angemessen in die Moderation von Inhalten in nicht englischsprachigen Ländern der globalen Mehrheit zu investieren. Die ICHREE fand auch Hinweise darauf, dass die Facebook-Plattform “zu langsam reagierte und unter unzureichender Personalausstattung, unzureichenden Sprachkenntnissen und mangelnden finanziellen Investitionen litt.”

Das Risiko, dass Meta zu Massengewalt in Äthiopien beitragen könnte, hätte schon vor dem Ausbruch des bewaffneten Konflikts in Nord-Äthiopien im Jahr 2020 klar sein müssen. Im Juni 2020, nach der Ermordung des beliebten Oromo-Sängers und -Aktivisten Hachalu Hundesa, verzeichnete die Plattform eine Welle von Inhalten, die Hass und Gewalt propagierten und zu “Rache” aufriefen, was zu einer Welle brutaler Gewaltanwendung führte. Kurz nach diesem Vorfall übersetzte Meta seine Gemeinschafts-Standards zum ersten Mal ins Amharische. Dies reichte jedoch bei weitem nicht aus, um das gesamte Spektrum der von Facebook ausgehenden Risiken angemessen abzuschwächen…”

Zivilgesellschaftliche Gruppen versuchten auch, Meta zu erreichen, um auf das Gewaltrisiko hinzuweisen, das die Facebook-Plattform in Äthiopien darstellte. Im Juni 2020, vier Monate vor dem Ausbruch des Konflikts in Nordäthiopien, schickten Organisationen für digitale Rechte einen Brief an Meta über die schädlichen Inhalte, die auf Facebook in Äthiopien kursierten, und warnten, dass solche Inhalte “zu physischer Gewalt und anderen Akten der Feindseligkeit und Diskriminierung gegen Minderheiten führen können”. Das Schreiben enthielt mehrere Empfehlungen zur Verhinderung von Schäden, darunter die Einstellung der algorithmischen Verstärkung von gewaltverherrlichenden Inhalten, vorübergehende Änderungen an den Sharing-Funktionen und die Durchführung einer Menschenrechts-Folgenabschätzung für die Tätigkeit des Unternehmens in Äthiopien.

Gelila hob die langsamen Reaktionen von Meta und den mangelnden Respekt vor den lokalen Kenntnissen hervor:

“Sie reagieren extrem langsam. Sie sind nicht sensibel für das, was gesagt wird – ich denke, sie haben Standards, die sehr weit von dem entfernt sind, was vor Ort passiert. Wenn man vor Ort ist, weiß man, was durch was ausgelöst wird. Es mag nicht zu ihren Richtlinien gehören, ob es sich um Hassrede handelt oder nicht, sie mögen ihr eigenes Verständnis in ihrem Büro irgendwo im Westen haben, aber vor Ort weiß man, was Hassrede im lokalen Kontext ist.“

Meta hat es kontinuierlich versäumt, angemessen Verantwortung für seine Auswirkungen in Äthiopien zu übernehmen. In einer am 14. Februar 2021 veröffentlichten Entscheidung empfahl der Facebook-Aufsichtsrat, dass Meta eine unabhängige Bewertung der menschenrechtlichen Sorgfaltspflicht durchführt, um festzustellen, wie die Facebook-Plattform in Äthiopien genutzt wurde, um unbestätigte Gerüchte und Hass zu verbreiten. Dies hat das Risiko von Gewalt in dem Land erhöht. Das wurde unabhängig von der Menschenrechts-Folgenabschätzung empfohlen, die Meta im Jahr 2021 im Vorfeld der Wahlen in Äthiopien durchgeführt hatte. Im Januar 2022 antwortete Meta, dass sie “die Durchführbarkeit” einer solchen Menschenrechts-Folgenabschätzung in Äthiopien über die Verbreitung von unbestätigten Gerüchten und Hass prüfen werde. Bis Oktober 2023 gibt es jedoch keine Belege für eine solche Bewertung oder dafür, dass die Arbeit an einer solchen Begutachtung begonnen hat.

Im Dezember 2017, nur wenige Monate nachdem das Unternehmen eine öffentlichkeits­wirksame Rolle bei den ethnischen Säuberungen gegen die Rohingya in Myanmar gespielt hatte, stellte Meta seinen News-Feed-Algorithmus auf eine neue Kennzahlen um, die als “sinnvolle soziale Interaktionen” (MSI – meaningful social interactions) bezeichnet wurden. Diese Änderung sollte dem sinkenden Engagement auf der Plattform entgegenwirken und wurde von CEO Mark Zuckerberg als Versuch dargestellt, Facebook zu “reparieren”. Dieser Bericht kommt jedoch zu dem Schluss, dass MSI einfach nur ein anderer Name für Engagement ist und erhebliche Risiken birgt, insbesondere in konfliktträchtigen Situationen. Es wird dabei zu Kommentaren und Nutzerinteraktionen ermutigt, immer noch basierend auf einem Engagement-Wertungssystem. Und interne Meta-Dokumente legen nahe, dass MSI zu einer algorithmischen Aufwertung von Inhalten führt, die aufrührerisch und schädlich sind.

Die Facebook Papers enthalten Beweise, die darauf deuten, dass der CEO von Meta, Mark Zuckerberg, persönlich intervenierte, um die Anwendung von vorgeschlagenen Entschärfungsmaßnahmen zu stoppen, weil er Bedenken wegen der möglichen negativen Auswirkungen auf MSI und damit auf die Rentabilität der Facebook-Plattform hatte. In einem Dokument, in dem es um “sanfte Maßnahmen” geht (ein Oberbegriff für eine breite Palette von Optionen, die Meta anwenden kann, wenn es um Inhalte in Krisensituationen wie in Äthiopien geht), schreibt der Autor: “Mark ist der Meinung, dass wir nicht in die Breite gehen sollten… Wir würden damit nicht starten, wenn es wesentliche Zielkonflikte mit MSI gäbe”. In diesem Dokument wird Äthiopien als ein Land genannt, in dem vorübergehend mit “sanften Maßnahmen” experimentiert wird, da es sich um ein gefährdetes Land handelt. Äthiopien wurde auch von der Facebook-Whistleblowerin Frances Haugen während ihrer Aussage vor dem Kongress im Jahr 2021 besonders hervorgehoben, als sie die Verantwortung von Meta für das algorithmische Aufblasen erörterte und sie sagte:

„Meta weiß, sie haben es öffentlich zugegeben, dass das engagement-basierte Ranking gefährlich ist ohne Integritäts- und Sicherheitssysteme. Aber diese Systeme wurden für die meisten Sprachen in der ganzen Welt nicht eingesetzt. Und das ist das, was Dinge wie ethnisch basierte Gewalt in Äthiopien verursacht.“

Alle Unternehmen sind dafür verantwortlich, die Menschenrechte zu achten, wo immer sie in der Welt während ihrer gesamten Geschäftstätigkeit operieren. Um dieser Verantwortung gerecht zu werden, müssen Unternehmen eine kontinuierliche und proaktive menschenrechtliche Sorgfaltsprüfung durchführen, um ihre Auswirkungen auf die Menschenrechte zu ermitteln, diesbezügliche Schäden zu verhindern, abzumildern und Rechenschaft darüber abzulegen, wie sie mit ihnen umgehen. Für Technologieunternehmen wie Meta sollte die Sorgfaltspflicht auch beinhalten, dass sie sich mit Situationen befassen, in denen ihr Geschäftsmodell und ihre Entscheidungen über ihr Systemdesign Menschenrechtsrisiken schaffen oder verschärfen.

Meta hat es versäumt, im Vorfeld des Nordäthiopienkonflikts im Jahr 2020 eine angemessene menschenrechtliche Sorgfaltsprüfung in Bezug auf seine Tätigkeit in Äthiopien durchzuführen, selbst nachdem das eigene Aufsichtsgremium empfohlen hatte, eine Menschenrechts-Verträglichkeitsprüfung in diesem Land zu machen. Diese Analyse lässt kaum Zweifel daran, dass Meta wieder einmal zu schweren Menschenrechts-Verletzungen und -verstößen in einem von Konflikten betroffenen Gebiet beigetragen hat.

Am 18. Juli 2023 schrieb Amnesty International an Meta und fragte, welche Maßnahmen das Unternehmen in Äthiopien vor und während des Konflikts in Nordäthiopien ergriffen hat, um zu verhindern, dass die Facebook-Plattform zu Menschenrechts-Verletzungen beiträgt. Meta antwortete und erläuterte seinen Sorgfaltspflichtansatz und die Einbindung von Stakeholdern in Äthiopien seit 2020. Amnesty International schrieb Meta im Oktober 2023 erneut zu den Vorwürfen aus diesem Bericht an. Meta machte deutlich, dass sie mit den Ergebnissen des Berichts nicht einverstanden sind, erklärte aber, dass sie sich aufgrund eines anhängigen Rechtsstreits nicht weiter äußern können.

Bis heute hat Meta es versäumt, die Risiken, die seine Geschäftstätigkeit in Äthiopien mit sich bringt, angemessen zu berücksichtigen. Es ist jedoch dringender denn je, dass das Unternehmen sinnvolle Schritte unternimmt, um potenzielle künftige Schäden angemessen zu mindern: In der Amhara-Region entwickelt sich derzeit eine Krise, und in ganz Äthiopien gibt es schwelende ethnische Spannungen. In Verbindung mit dem Ausbau des Telekommunikationsnetzes in Äthiopien sind die Voraussetzungen dafür gegeben, dass die Facebook-Plattform erneut als Vehikel für Hass, Gewalt und Diskriminierung genutzt wird.

Gegen Meta läuft zurzeit ein Zivilverfahren in Kenia, weil das Unternehmen angeblich zu Menschenrechts-Verletzungen in Äthiopien beigetragen hat. An dem Rechtsstreit sind zwei Einzelkläger, Abrham Meareg und Fisseha Tekle, sowie eine kenianische zivilgesellschaftliche Organisation, das Katiba Institute, beteiligt. Sie wollen die Algorithmen der Facebook-Plattform daran hindern, schädliche Inhalte zu empfehlen und Meta dazu zwingen, einen Opferfonds in Höhe von 1,6 Mrd. USD einzurichten. Damit sollen sie beginnen, den Schaden, zu dem das Unternehmen beigetragen hat, zu beheben.

Wie in dem Bericht ausführlich dargelegt, hat Metas Versagen bei der Einhaltung seiner Menschenrechtspflichten, wie sie in den UN-Leitprinzipien für Wirtschaft und Menschenrechte dargelegt sind, zu verheerenden Auswirkungen für die Tigray-Gemeinschaft geführt. Diese verheerenden Auswirkungen werden durch die Tatsache verstärkt, dass Meta bereits für schwere Menschenrechts-Verletzungen in Myanmar verantwortlich gemacht wurde und sich ähnliche systemische Fehler in Äthiopien wiederholt haben. Es kann nicht offenkundiger sein, dass die Geschäftspraktiken von Meta eine erhebliche Gefahr für die Menschenrechte darstellen, insbesondere in konfliktbetroffenen Gebieten. Es sind dringende, weitreichende Reformen erforderlich, um sicherzustellen, dass Meta nicht erneut in einem anderen Land zu diesen Menschenrechts-Verletzungen beiträgt. Dazu gehört vor allem, dass Meta sich verpflichtet, sein auf Überwachung basierendes Geschäftsmodell zu ändern, um sicherzustellen, dass sich solche Menschenrechts-Verletzungen in Zukunft nicht wiederholen.

Metas wiederholtes Versagen in Äthiopien zeigt, dass das Unternehmen immer noch nicht die Ursache für seine negativen Auswirkungen auf die Menschenrechte angeht. Die Hauptursache für Metas wiederholten Beitrag zu Menschenrechts-Verletzungen ist sein auf Überwachung basierendes Geschäftsmodell, das auch von mehreren anderen Big-Tech-Unternehmen genutzt wird. Diese Probleme können nur mit einer soliden und sinnvollen staatlichen Regulierung und Aufsicht angegangen werden. Die Staaten müssen ihrer Verpflichtung zum Schutz der Menschenrechte nachkommen, indem sie Gesetze einführen und durchsetzen, um das auf überwachungsbasierte Geschäftsmodell von Big-Tech-Unternehmen wirksam einzuschränken. Abrham Meareg, der trauernde Sohn von Professor Meareg Amare, drückte seinen Beweggrund für die zivilrechtliche Klage gegen Meta aus und unterstrich die Dringlichkeit, dass das Unternehmen endlich eine Lehre aus seinen Aktivitäten in Äthiopien ziehen muss, in einfachen Worten:

„Wir können so viele Leben retten!“

14. November 2023