«Mark Zuckerberg isch en blöde Siach!» So einen Pinnwand-Post würde das «Community Operations Team» von Facebook noch durchgehen lassen. Wenn aber ein Schweizer auf der Plattform zum Beispiel für eine Terrororganisation wie den Islamischen Staat wirbt oder einen anderen User mobbt, greift das Team aus Dublin ein.
Denn dann macht er sich der «Hassrede» schuldig, und die ist gemäss Facebook-interner Richtlinien nicht erlaubt. Genauso wenig wie Nacktbilder.
Meldet jemand per Klick so etwas, wird die Anfrage nicht durch einen Algorithmus beantwortet. Sie landet auf dem Bildschirm einer der laut «Independent» Hunderten Menschen aus 44 Nationen, die im «Community Operations Team» arbeiten.
Das Team muss erkennen, ob eine Bombendrohung ein Witz ist
Zu den Zahlen will sich Facebook nicht äussern. Fest steht aber: Alle müssen sich mit Sprache und Kultur auskennen. «Sie müssen alle Muttersprachler sein», erklärt ein Facebook-Sprecher Blick am Abend. Im «Community Operations Team» arbeiteten daher auch Leute, die Schwizerdütsch sprechen.
«Denn sie müssen Ironie und Nuancen erkennen können», so der Facebook-Sprecher. So müssen sie beispielsweise verstehen, ob eine Bombendrohung nur ein Witz ist oder jemand seine gepostete Selbstmorddrohung ernst meint.
Die Social-Media-Spezialisten können dann Kontakt zu den Nutzern aufnehmen, einzelne Beiträge löschen oder ganze Accounts sperren.
Sie seien daher «die Frontlinie zwischen Facebook und den Nutzern», sagte die Geschäftsleiterin von Facebook Irland dem «Independent».
Wird ein Post strafrechtlich relevant, wenden sich die Community-Beobachter direkt an ein anderes Facebook-Team, das mit den staatlichen Behörden zusammenarbeitet. «Natürlich arbeiten dort auch Schweizer», so der Facebook-Sprecher.