Die in Kenia ansässige Outsourcing-Firma Sama sagte am 10. Januar, dass sie ab März keine Moderationsdienste mehr für den Eigentümer von Facebook, WhatsApp und Instagram erbringen wird, da sie sich auf die Datenkennzeichnung konzentrieren will.

Sama kündigte an, 3 % seines Personals - etwa 200 Mitarbeiter - zu entlassen, um seine Abläufe zu rationalisieren und die Effizienz zu steigern. Das Unternehmen wird weiterhin Datenetikettierungsdienste für Meta anbieten.

Die Ankündigung erfolgt zu einem Zeitpunkt, an dem sowohl Sama als auch Meta mit einem Gerichtsverfahren wegen angeblicher Arbeitsrechtsverletzungen und der Verhinderung einer gewerkschaftlichen Organisierung in Kenia konfrontiert sind. Eine weitere Klage wirft Meta vor, gewalttätige Posts auf Facebook zuzulassen und damit den Bürgerkrieg im benachbarten Äthiopien anzuheizen. Beide Unternehmen haben ihre Bilanz verteidigt.

Aktivisten für digitale Rechte sagten, dass die Bemühungen von Meta, schädliche Inhalte in afrikanischen Ländern einzudämmen, im Vergleich zu den reicheren Ländern erbärmlich unzureichend seien und forderten das Unternehmen auf, seine Moderationsprozesse drastisch zu verbessern.

"Mit dem Ausstieg von Sama wäre jetzt eine gute Gelegenheit für Meta, die Dinge richtig zu stellen und bessere Arbeitsbedingungen für afrikanische Moderatoren in der Region zu gewährleisten", sagte Bridget Andere, Africa Policy Analyst bei Access Now.

"Meta sollte die Anzahl der Moderatoren für die Region erhöhen, um die lokalen Sprachen und Dialekte angemessen abzudecken, und auch transparenter über seine Algorithmen sein, die schädliche Inhalte fördern", sagte sie der Thomson Reuters Foundation.

Meta machte keine Angaben dazu, ob es einen neuen Drittanbieter für Ostafrika gefunden hat, sagte aber, dass der Rückzug von Sama keine negativen Auswirkungen auf die Nutzer seiner Social Media Plattformen haben wird.

"Wir respektieren die Entscheidung von Sama, seine Dienste zur Überprüfung von Inhalten für soziale Medienplattformen einzustellen", sagte ein Meta-Sprecher.

"Wir werden während dieser Übergangsphase mit unseren Partnern zusammenarbeiten, um sicherzustellen, dass es keine Auswirkungen auf unsere Fähigkeit zur Überprüfung von Inhalten gibt.

RECHTLICHE HERAUSFORDERUNGEN

Metas rechtliche Anfechtungen in Ostafrika begannen im Mai letzten Jahres, nachdem der ehemalige Moderator Daniel Motaung eine Klage wegen schlechter Arbeitsbedingungen in Kenia eingereicht hatte.

In der Petition, die auch gegen Sama eingereicht wurde, wird behauptet, dass die Arbeitnehmer, die Facebook-Posts moderieren, unregelmäßig bezahlt werden, nicht ausreichend psychologisch betreut werden, gewerkschaftsfeindlich sind und in ihrer Privatsphäre und Würde verletzt werden.

Sama bestreitet die Vorwürfe, während Meta erklärte, es verlange von seinen Partnern "branchenführende Löhne, Leistungen und Unterstützung für die Arbeitnehmer".

Es wird erwartet, dass ein Richter am 6. Februar darüber entscheidet, ob ein kenianisches Gericht mit der Klage befasst werden kann.

Letzten Monat wurde Meta mit einer weiteren Klage konfrontiert, in der das Unternehmen beschuldigt wird, gewalttätige Beiträge auf Facebook zuzulassen und damit den Bürgerkrieg in Äthiopien anzuheizen.

In der Klage, die von zwei äthiopischen Forschern und der kenianischen Rechtsgruppe Katiba Institute eingereicht wurde, wird argumentiert, dass die Empfehlungssysteme von Facebook hasserfüllte und gewalttätige Beiträge in Äthiopien verstärkt haben, darunter mehrere, die dem Mord am Vater eines der Forscher vorausgingen.

Die Kläger fordern, dass Meta Sofortmaßnahmen ergreift, um gewalttätige Inhalte herabzustufen, das Personal für die Moderation in Nairobi aufzustocken und Entschädigungsfonds in Höhe von etwa 2 Milliarden Dollar für die weltweiten Opfer von Gewalt auf Facebook einzurichten.

Meta sagt, dass es strenge Regeln hat, die festlegen, was auf Facebook und Instagram erlaubt ist und was nicht.

"Hassreden und Aufstachelung zur Gewalt verstoßen gegen diese Regeln und wir investieren viel in Teams und Technologien, die uns helfen, diese Inhalte zu finden und zu entfernen", sagte der Meta-Sprecher.

"Unsere Arbeit im Bereich Sicherheit und Integrität in Äthiopien wird durch das Feedback von lokalen zivilgesellschaftlichen Organisationen und internationalen Institutionen geleitet."

OUTSOURCING BEENDEN, ALGORITHMEN ÜBERPRÜFEN

Weltweit überprüfen Tausende von Moderatoren Beiträge in sozialen Medien, die Gewalt, Nacktheit, Rassismus oder andere anstößige Inhalte enthalten könnten. Viele von ihnen arbeiten für externe Auftragnehmer und nicht direkt für Technologieunternehmen.

Meta wurde schon früher wegen der Arbeitsbedingungen der Moderatoren und der Kritik an seinen Maßnahmen zur Unterbindung von Hassreden und gewalttätigen Inhalten unter die Lupe genommen.

Im Juli 2021 genehmigte ein kalifornischer Richter einen 85-Millionen-Dollar-Vergleich zwischen Facebook und mehr als 10.000 Moderatoren, die das Unternehmen beschuldigten, sie nicht vor psychischen Schäden geschützt zu haben, weil sie grafischen und gewalttätigen Bildern ausgesetzt waren.

Im selben Jahr reichten Rohingya-Flüchtlinge aus Myanmar eine Klage ein und verklagten Meta auf 150 Milliarden Dollar, weil das Unternehmen angeblich nicht gegen Hassreden gegen die Rohingya vorgegangen war, die zur Gewalt gegen die Minderheit beitrugen.

Rechtsgruppen sagen, dass die Moderationsprozesse die spezifischen kulturellen und gesellschaftlichen Kontexte nicht verstehen und die lokalen Sprachen und Dialekte nicht kennen, so dass sich problematische Inhalte schnell verbreiten und mit schwerwiegenden Folgen verstärkt werden können.

Cori Crider, Direktorin von Foxglove - einer in London ansässigen Gruppe, die beide Klagen in Kenia unterstützt - forderte Meta auf, seine Outsourcing-Praktiken zu beenden und die "kläglichen" Ressourcen, die es für die Sicherheit in Afrika bereitstellt, zu erhöhen.

"Facebook sollte die Moderation ins eigene Haus holen, jeden einzelnen der 260 Moderatoren in Nairobi einstellen, die lebenswichtige Sicherheitsarbeit leisten, und diese Menschen mit anständigen Löhnen, umfassender klinischer psychischer Unterstützung sowie Würde und Prestige würdigen", sagte Crider.

"Das Outsourcing ist gescheitert und sowohl die Arbeitnehmer als auch die einfachen Menschen haben den Preis dafür bezahlt."

Alia Al Ghussain, Forscherin für künstliche Intelligenz und Menschenrechte bei Amnesty International, sagte, dass die Algorithmen von Facebook - die den News Feed, das Ranking, die Empfehlungen und die Gruppenfunktionen antreiben und damit bestimmen, was die Nutzer auf der Plattform sehen - ebenfalls einer genauen Prüfung bedürfen.

"Das auf Engagement basierende Geschäftsmodell von Meta bedeutet, dass die Algorithmen so programmiert sind, dass schädliche und hetzerische Inhalte viral gehen", sagte Al Ghussain, deren Organisation die Klage gegen Äthiopien unterstützt.

"Die Prozesse, die wir sowohl im Fall Äthiopien als auch im Fall Myanmar sehen, zeigen deutlich, dass das Problem systemisch ist und dringend durch Regulierung angegangen werden muss."

Ursprünglich veröffentlicht unter: