Soziale Medien
Facebook sperrt Nutzer ohne zu erklären, warum – jetzt wird auch intern Kritik laut

Das soziale Netzwerk sperrt aus unerklärlichen Gründen einzelne Userinnen und User. Jetzt soll Facebooks «Oberstes Gericht» für mehr Gerechtigkeit sorgen.

Adrian Lobe
Drucken
Facebook entfernt vorsorglich auch harmlose Beiträge, um sich nicht angreifbar zu machen.

Facebook entfernt vorsorglich auch harmlose Beiträge, um sich nicht angreifbar zu machen.

Bild: Imago

Donald Trump, der diese Woche für weitere sechs Monate von Facebook gesperrt wurde, ist längst nicht der Einzige, dem eine solche Verbannung widerfahren ist. Und anders als beim ehemaligen US-Präsidenten ist den Usern oft gar nicht klar, für was sie bestraft wurden. So etwa Nick Barksdale, einem Geschichtslehrer aus Oklahoma.

Im März 2021 schrieb er einem befreundeten Historiker auf Facebook: «Was du sagst, ist zum Kotzen.» Prompt poppte ein Warnhinweis mit einem orangefarbenen Ausrufezeichen auf: «Du kannst für sieben Tage nicht mehr posten oder kommentieren.» Die Begründung für die Facebook-Sperre: «Du hast etwas gepostet, was nicht den Gemeinschaftsstandards entspricht.»

Die Gemeinschaftsstandards – eine Art Grundgesetz, das sich Facebook gegeben hat – legen unter anderem fest, welche Inhalte als «anstössig» gelten. Hassrede zum Beispiel oder Gewaltdarstellungen. Barksdale wusste nicht, warum er plötzlich gesperrt wurde. Lag es an dem Wort «kotzen»?

Der Lehrer legte gegen die Entscheidung Einspruch ein. Auf Facebook ist das keine grosse Sache, man muss sich nur durch ein paar Formularfelder klicken. Zu Barksdales Überraschung nahm Facebook die Entscheidung nicht zurück, sondern erhöhte das Strafmass: 30 Tage Sperre. Ihm wurden noch weitere Vergehen zur Last gelegt: sechs Posts, die gegen die Gemeinschaftsstandards verstiessen. Der Historiker muss sich wie Josef K. in Kafkas Roman «Der Prozess» gefühlt haben: Er wurde verurteilt ohne zu wissen für was – und in den «Facebook-Knast» gesteckt.

So wie Barksdale ergeht es vielen Nutzern. Sie werden gesperrt, weil sie ein falsches Wort oder Foto gepostet haben. Laut seinem «Bericht über die Durchsetzung der Gemeinschaftsstandards» hat Facebook zwischen Oktober und Dezember 2020 bei 28 Millionen Inhalten «Massnahmen» ergriffen. Will heissen: Posts gelöscht, Nutzer gesperrt oder im Zweifel Strafverfolgungsbehörden informiert.

Facebook setzt bei der Moderation von Inhalten – wie andere Plattformen auch – auf eine Mischung aus menschlicher und künstlicher Intelligenz (KI). Eine Armada von Contentmoderatoren, 15000 an der Zahl, prüft Beiträge, die Nutzer gemeldet oder Algorithmen markiert haben.

Brustwarzen problemlos erkennen?

Zwar hat Facebook-Chef Mark Zuckerberg bei der Anhörung im US-Kongress 2018 vollmundig verkündet, ein KI-System könne problemlos Brustwarzen erkennen. Doch noch immer machen Computer haarsträubende Fehler. So wurden im vergangenen Jahr Zwiebeln als anstössig markiert, weil der Algorithmus die in einem Körbchen platzierten Knollen für die Rundungen eines Körperteils hielt.

Facebook-Gründer Mark Zuckerberg musste wegen der Löschungspraxis seines Konzerns bereits vor dem US-Kongress aussagen

Facebook-Gründer Mark Zuckerberg musste wegen der Löschungspraxis seines Konzerns bereits vor dem US-Kongress aussagen

Keystone

Facebook ist wegen problematischer Inhalte zuletzt stark in die Kritik geraten – und hat daher seine Algorithmen scharf gestellt. «Facebook ist viel aggressiver geworden», sagt Orestis Papakyriakopoulos. Der Wissenschafter forscht an der Princeton University zu Politik und sozialen Netzwerken und sagt:

«Es ist besser für das Unternehmen, Inhalte wegzunehmen als sie auf der Plattform zu lassen.»

Soll heissen: Um sich nicht angreifbar zu machen, wirft der Konzern den Staubsauger an – und entfernt vorsorg­lich auch harmlose Beiträge, die sich nicht zweifelsfrei einordnen lassen. «Das ist natürlich proble­matisch für die Debattenkultur, weil sich eine Firma zur Meinungspolizei aufschwingt», kritisiert Papakyriakopoulos.

Die Kriterien, nach denen Beiträge oder Nutzer eingeschränkt werden, sind dabei äusserst undurchsichtig. Das «Wall Street Journal» hat nun erstmals Einblicke in geheime Löschvorgaben des Techkonzerns erhalten. Demnach sind Moderatoren angehalten, «abwertende körperliche Beschreibungen» zu entfernen. Verboten ist zum Beispiel, das äussere Erscheinungsbild einer Person als «hässlich» oder «abscheulich» zu bezeichnen.

Erlaubt sind dagegen Beschreibungen wie «breite Schultern» oder «krauses Haar». Das Regelwerk, das die Moderatoren bei ihrer Arbeit beachten müssen, ist ein wahres bürokratisches Monster: Die sogenannten «Implementation Standards» sind mit 10000 Wörtern länger als manche EU-Richtlinien. Doch für Auslegungsfragen und juristische Feinheiten haben die im Akkord schuftenden Moderatoren keine Zeit. Denn jeden Tag kommt neues Material hinzu.

Eine Sprecherin sagte zum «Wall Street Journal», Facebook checke zwei Millionen Inhalte pro Tag. Geht man davon aus, dass die Prüfer in zehn Prozent der Fälle danebenliegen, wie Facebook-Chef Zuckerberg sagte, würde das bedeuten, dass 200 000 Entscheidungen am Tag falsch sind. Die Flut an Posts führt zu einer hohen Fehlerquote. Auch in der Causa Barksdale gab es einen Justizirrtum: Es handelte sich laut der Sprecherin um ein Versehen. Bloss: Wie können die Fehler abgestellt werden? Mit mehr Manpower? Oder mit noch leistungsfähigeren KI-Systemen, wie es Zuckerberg vorschwebt?

An die Verpflichtungen erinnern

Facebooks «Oberstes Gericht», das Oversight-Board, das jüngst die Sperre von Donald Trump bestätigte, hatte in einer Entscheidung vom Januar klarere Regeln angemahnt. Das mächtige Gremium, dem neben renommierten Rechtsprofessoren die dänische Ministerpräsidentin Helle Thorning-Schmidt sowie der ehemalige «Guardian»-Chefredakteur Alan Rusbridger angehören, hat ein Urteil der Moderatoren kassiert.

Journalist Alan Rusbridgerist einer der 20 Mitglieder des Oversight Boards von Facebook.

Journalist Alan Rusbridger
ist einer der 20 Mitglieder des Oversight Boards von Facebook.

Bild: Keystone

«Das Gremium kam zu dem Schluss, dass die Facebook-Vorschrift zu Fehlinformationen und unmittelbar drohendem Schaden (...) unangemessen vage ist», heisst es darin. Doch damit nicht genug. Das Oversight-Board holt zu einer Generalkritik aus: «Ein Flickenteppich aus Richtlinien, die in verschiedenen Bereichen der Facebook-Website zu finden sind, erschwert den Nutzern das Verständnis, welche Inhalte untersagt sind.» Eine Ohrfeige für das Facebook-Management.

Der «Oberste Gerichtshof» stellt sich auf die Seite der Community – und ermöglicht den Nutzern durch ein Einspruchsverfahren, Inhaltsentscheidungen auf Facebook oder Instagram anzufechten. Wenn die Contentmoderation bei Facebook weiter so erratisch ist, dürfte das Gremium bald von einer Klagewelle überrollt werden.