Wer in Myanmar 2017 durch den Newsfeed seines Facebook-Profils scrollte, bekam mit hoher Wahrscheinlichkeit Beiträge angezeigt, die hasserfüllt über eine muslimische Minderheit des Landes sprachen. Dass Rohingya erschossen gehören, war dort etwa zu lesen, dass ihre Kadaver an Tiere verfüttert werden sollen oder dass sie alle Vergewaltiger seien. Als Maden und Hunde wurden sie bezeichnet, die das zu 90 Prozent buddhistische Land angeblich in einen islamischen Staat verwandeln wollen. Daneben Fotos toter Menschen, die angeblich von Rohingya ermordet wurden.
Was sich in den Wochen darauf tatsächlich zugetragen hat, wird seit 2019 vor dem Internationalen Gerichtshof verhandelt. Nach Schätzungen der Hilfsorganisation Ärzte ohne Grenzen wurden zwischen August und September 2017 mindestens 6.700 Rohingya getötet und etliche Gemeinden der Bevölkerungsgruppe zerstört. Etwa 700.000 flohen damals über die Grenze nach Bangladesch.
Ein Regierungssprecher behauptet, die Gewalt gegen Rohingya sei lediglich inszeniert
Eine Klageschrift, die die Geflohenen Anfang Dezember in den USA und in Großbritannien eingereicht haben, spricht Facebook eine Mitschuld daran zu und fordert 150 Milliarden Dollar Schadensersatz.
Der zentrale Vorwurf: Nicht nur habe der Algorithmus des Sozialen Mediums die Verbreitung von Gewaltaufrufen und Hassbeiträgen befeuert. Das Unternehmen habe von den Posts gewusst und die programmierte Begünstigung problematischer Inhalte willentlich geschehen lassen. Dieser Aspekt der Anklageschrift ist deshalb so zentral, weil Facebook strafrechtlich bislang nicht für die Verbreitung von Hassrede und Desinformation belangt werden konnte. Als Seitenbetreiber ist das Unternehmen juristisch nämlich nicht für die Inhalte der User verantwortlich. Könnte Facebook jedoch nachgewiesen werden, dass der Algorithmus gezielt beibehalten wurde – etwa um Nutzerinteraktionen zu steigern –, gäbe es womöglich einen rechtlichen Hebel.
Weiterlesen
Kutupalong in Bangladesch ist eines der größten Flüchtlingslager der Welt. Hier leben rund 600.000 verfolgte Rohingya. Hier erzählen drei von ihrem Leben im Camp
Neben den Aussagen der Whistleblowerin Frances Haugen stützen mittlerweile auch Einblicke eines anonymen ehemaligen Mitarbeiters die Vorwürfe, dass Facebook die Verbreitung von Hass und Gewaltaufrufen in Kauf genommen habe, um wirtschaftliche Unternehmensinteressen zu verfolgen.
Für das Land Myanmar kommt erschwerend hinzu, dass Facebook für viele Menschen vor Ort gleichbedeutend mit dem Internet ist. 2017 sollen von den insgesamt rund 54 Millionen Bürgern 13 Millionen einen Facebook-
Account gehabt haben – das sind rund 86 Prozent aller Menschen, die Internet haben. Ein Großteil von ihnen benannte das Soziale Medium in einer Umfrage als erste Quelle für Informationen. Sogar politische Vorfälle – etwa den Rücktritt des Präsidenten im März 2018 – veröffentlichte die Regierung zuallererst auf Facebook.
Entsprechend dürften der Hetze und Desinformation wenig entgegengestanden haben. Das Unternehmen räumte bislang ein, dass es Schwierigkeiten gegeben habe, Hetze in der birmanischen Sprache zu blockieren. Zu dem Vorwurf, dass die Empfehlungen von Facebook die emotional erregendsten Beiträge bevorzugt hätten, sagte der Konzern nichts. Dabei fanden Desinformation und extreme Inhalte die meiste Verbreitung – darunter im Oktober 2017 die Behauptung eines Regierungssprechers, die Gewalt gegen die Rohingya sei lediglich inszeniert.
Experten bezweifeln allerdings, dass die Klage erfolgreich sein wird. Nichtsdestotrotz gilt sie als Zeichen dafür, dass Plattformen wie Facebook sich zukünftig stärker ihrer Verantwortung stellen müssen – damit sich ein Desaster wie in Myanmar nicht wiederholt: Zuletzt ließ sich im Bürgerkrieg in Äthiopien beobachten, wie hasserfüllte Posts auf Facebook ungehindert Bevölkerungsgruppen aufstacheln konnten.
Titelbild: In diesem Facebook-Post aus dem Jahr 2017 behauptet das Militär von Myanmar, die Rohingya würden andere Völker terrorisieren.