Das Gremium, das vom Unternehmen eingerichtet wurde, um auf die Kritik am Umgang mit problematischem Material zu reagieren, trifft verbindliche Entscheidungen in einer kleinen Anzahl von Fällen, in denen es um die Moderation von Inhalten geht, und gibt unverbindliche politische Empfehlungen.

Meta wurde von Gesetzgebern und Regulierungsbehörden wegen der Sicherheit der Nutzer und des Umgangs mit Missbrauch auf seinen Plattformen in der ganzen Welt unter die Lupe genommen, insbesondere nachdem die Whistleblowerin Frances Haugen interne Dokumente durchsickern ließ, die die Schwierigkeiten des Unternehmens bei der Überwachung von Inhalten in Ländern zeigten, in denen solche Äußerungen am ehesten Schaden anrichten, darunter Äthiopien.

In dem seit einem Jahr andauernden Konflikt zwischen der äthiopischen Regierung und rebellischen Kräften aus der nördlichen Region Tigray sind Tausende von Menschen gestorben und Millionen vertrieben worden.

Der Social-Media-Gigant erklärte, er habe "erhebliche Ressourcen in Äthiopien investiert, um potenziell schädliche Inhalte zu identifizieren und zu entfernen", und reagierte damit auf die Empfehlungen der Aufsichtsbehörde vom Dezember zu einem Fall, bei dem es um in Äthiopien veröffentlichte Inhalte ging.

Das Aufsichtsgremium hatte im vergangenen Monat die ursprüngliche Entscheidung von Meta bestätigt, einen Beitrag zu entfernen, in dem die Beteiligung ethnischer tigrayanischer Zivilisten an Gräueltaten in der äthiopischen Region Amhara behauptet wurde. Da Meta den Beitrag nach dem Einspruch des Nutzers wiederhergestellt hatte, musste das Unternehmen den Inhalt erneut entfernen.

Am Donnerstag erklärte Meta, dass es den Beitrag zwar entfernt habe, aber nicht mit der Begründung des Vorstands einverstanden sei, dass er hätte entfernt werden müssen, weil es sich um ein "unbestätigtes Gerücht" handele, das das Risiko drohender Gewalt erheblich erhöhe. Es sagte, dies würde "einen journalistischen Veröffentlichungsstandard auferlegen".

Ein Sprecher der Aufsichtsbehörde sagte in einer Erklärung: "Die bestehenden Richtlinien von Meta verbieten Gerüchte, die zu drohender Gewalt beitragen und die nicht in einem sinnvollen Zeitrahmen entlarvt werden können, und das Board hat Empfehlungen ausgesprochen, um sicherzustellen, dass diese Richtlinien in Konfliktsituationen wirksam angewendet werden."

"Gerüchte, die einer ethnischen Gruppe eine Mitschuld an Gräueltaten unterstellen, wie sie in diesem Fall festgestellt wurden, haben das Potenzial, Menschen schwer zu schaden", hieß es.

Der Vorstand hatte Meta empfohlen, eine Due-Diligence-Prüfung der Menschenrechte in Auftrag zu geben, die in sechs Monaten abgeschlossen sein sollte. Diese sollte eine Überprüfung der Sprachfähigkeiten von Meta in Äthiopien und eine Überprüfung der Maßnahmen zur Verhinderung des Missbrauchs seiner Dienste in dem Land beinhalten.

Das Unternehmen sagte jedoch, dass nicht alle Elemente dieser Empfehlung "in Bezug auf den Zeitplan, die Datenwissenschaft oder den Ansatz durchführbar sein könnten. Das Unternehmen sagte, es werde seine bestehende Sorgfaltspflicht in Bezug auf die Menschenrechte fortsetzen und sollte in den nächsten Monaten ein Update darüber haben, ob es auf die Empfehlung des Vorstands reagieren kann.

In früheren Berichten von Reuters über Myanmar https://www.reuters.com/investigates/special-report/myanmar-facebook-hate und andere Länder https://www.reuters.com/article/us-facebook-india-content/facebook-a-megaphone-for-hate-against-indian-minorities-idUSKBN1X929F wurde untersucht, wie schwierig es für Facebook war, Inhalte weltweit in verschiedenen Sprachen zu überwachen. Im Jahr 2018 sagten Menschenrechtsermittler der Vereinten Nationen, dass die Nutzung von Facebook eine Schlüsselrolle bei der Verbreitung von Hassreden gespielt hat, die die Gewalt in Myanmar angeheizt haben.

Meta, das nach eigenen Angaben zu langsam war, um Fehlinformationen und Hass in Myanmar zu verhindern, hat erklärt, dass das Unternehmen jetzt weltweit Muttersprachler hat, die Inhalte in mehr als 70 Sprachen überprüfen und daran arbeiten, Missbrauch auf seinen Plattformen an Orten zu stoppen, an denen ein erhöhtes Risiko für Konflikte und Gewalt besteht.

Der Aufsichtsrat empfahl Meta außerdem, seine Werteerklärung zur Sicherheit zu überarbeiten, um zu verdeutlichen, dass Online-Sprache ein Risiko für die physische Sicherheit von Personen und ihr Recht auf Leben darstellen kann. Das Unternehmen erklärte, dass es diesen Wert ändern werde, um die Empfehlung teilweise umzusetzen.