Hundert Hasskommentare in zehn Minuten? Tausend Likes in fünf? Die Kommunikationswissenschaftlerin Lisa-Maria Neudert über Social Bots, Facebooks Algorithmus und Propaganda im Internet.
fluter: Wer steckt hinter diesen Manipulationsversuchen?
Lisa-Maria Neudert: Hinter manchen Bots stehen politische Akteure. In Syrien hat das Regime Bots eingesetzt, um Aufständische in die Irre zu führen. Oft kann man aber nur spekulieren. Ein Bot kann von offiziellen Institutionen oder Parteien geschaltet werden, aber genauso gut auch von Privatpersonen, die für eine bestimmte Seite Stimmung machen möchten.
Wie bedeutsam sind Meinungsroboter?
Wir haben festgestellt, dass bis zu 27 Prozent aller Tweets im US-Wahlkampf von Bots stammten, wobei das Trump-Lager sehr viel präsenter war. Bei der Entscheidung zum Brexit stammte ein Drittel aller Tweets von gerade einmal einem Prozent der Accounts. Rund um die Bundespräsidentenwahl in Deutschland haben wir 22 Bots finden können.
Das sind nicht besonders viele.
Das stimmt einerseits, vor allem wenn man sich vor Augen hält, wie heftig und fast schon hysterisch derzeit über die Manipulationsgefahr von Bots diskutiert wird. Andererseits ist die Bundespräsidentenwahl kein besonders brisantes Ereig- nis, zu dem viele Menschen twittern. Es kann gut sein, dass zur Bundestagswahl im September eine ganze Reihe Bots dazukom- men, die bisher gar nicht als politisch aufgefallen sind. Wir haben zum Beispiel Bots gefunden, die zu Sportwetten oder Shopping getwittert hatten und dann mit einem Mal Stim- mung für den AfD-Kandidaten bei der Bundespräsidentenwahl gemacht haben. Genauso wie es englischsprachige Bots aus dem Trump-Lager gab, die nach dem Attentat auf dem Berliner Breitscheidplatz plötzlich auf Deutsch gegen Merkels Flücht- lingspolitik gewettert haben. Ganze Bot-Armeen lassen sich im Nu umpolen.
Was haben Sie sonst noch bei Ihrer Analyse zur Bundesprä- sidentenwahl herausgefunden?
Auffällig war, dass die Unterstützung für den AfD-Kan- didaten deutlich überrepräsentiert war. Fast die Hälfte aller Tweets galt ihm, fast genauso viele wie Frank-Walter Steinmeier. Wir haben uns außerdem angesehen, auf welche Quellen in den Tweets verlinkt wurde. Auf vier Nachrichten aus verlässlichen Informationsquellen, etwa etablierten Medien, kam jeweils eine Junk-News-Quelle. Das ist erheblich. Während der US-Wahl war das Verhältnis sogar eins zu eins.
In den USA haben gezielte Falschmeldungen bereits zu Gewaltakten geführt. Im Dezember schoss ein Mann in einer Pizzeria um sich, nachdem in sozialen Netzwerken die Ver- schwörungstheorie die Runde gemacht hatte, Hillary Clinton betreibe in dem Lokal einen Kinderpornoring. Wie können solch abstruse Geschichten in den sozialen Netzen überhaupt Gläubige finden?
Das Problem entsteht nicht erst durch die sozialen Medien. Es gibt bei einem Teil der Menschen ein generelles Miss- trauen gegenüber den politischen Eliten, sodass Junk-Meldun- gen auf fruchtbaren Boden fallen.
Der Facebook-Algorithmus versorgt einen allerdings vor allem mit Meldungen, die das eigene Weltbild stützen.
Ja, aber die Filterblasen fangen schon in der Offline-Welt an. Wenn etwa die urbanen Akademiker in den USA in ihrer Timeline keine Pro-Trump-Posts finden, obwohl doch knapp die Hälfte der Wähler für ihn gestimmt hat, hat das vielleicht weniger mit dem Facebook-Algorithmus zu tun – sondern damit, in welchen Milieus und Freundeskreisen sie sich bewegen. Was im Netz stattfindet, ist auch ein Abbild der Wirk- lichkeit außerhalb. Facebook selbst hat übrigens 2015 eine Studie veröffentlicht, wonach die Filterblasen gar nicht so her- metisch sind. Die Nutzer wurden durchaus auch mit Nachrich- ten konfrontiert, die nicht zu ihrer politischen Einstellung passen. Mit der Studie wollte Facebook natürlich auch die Kritik an seinem Algorithmus entkräften. Ich würde dennoch keine Entwarnung geben. Denn auch durch einen kleinen al- gorithmischen Filter kann man in seinem Weltbild eingemau- ert werden.
Facebook will jetzt mit Faktencheckern gegen Falschmel- dungen ankämpfen. Eine gute Idee?
Ich finde Faktenchecker sehr problematisch, ganz egal ob Facebook sich selber darum kümmert oder Externe damit beauftragt. Wollen wir wirklich Facebook über Inhalte und deren Wahrheitsgehalt entscheiden lassen? Bei vielen Fake News ist es schwer zu beurteilen, wo die Grenze zwischen Fak- ten und Meinungen verläuft.
Einige fordern derzeit ein Verbot von Social Bots. Ist das sinnvoll?
Davon halte ich wenig. Es gibt nicht nur Hetz-Bots, sondern auch viele legitime, sinnvolle Bots. Chat-Bots beantworten Kundenanfragen, Blogger lassen ihre neu verfassten Beiträge automatisch bei Twitter einlaufen. Ich selbst folge Bot-Accounts, die mich regelmäßig über neue akademische Veröffentlichungen informieren. Will man die alle verbieten?
Wenn so viele schädliche Bots das Klima vergiften, muss man das vielleicht in Kauf nehmen.
Aber ist das Verhältnis tatsächlich so, dass es nur wenige gute und sehr viele schädliche gibt? Ich bin mir nicht sicher.
Was halten Sie davon, wenn es zumindest eine Kennzeich- nungspflicht für Bots gäbe?
Das wäre eine mögliche Maßnahme, ist aber mit vielen praktischen Problemen verbunden. Zum Beispiel: Ab welchem Grad der Automatisierung soll die Kennzeichnungspflicht grei- fen? Am allerwichtigsten ist aus meiner Sicht: mehr Medienkompetenz.
Was meinen Sie damit?
Wir müssen uns darüber im Klaren sein, dass wir im Netz nicht automatisch mit Menschen kommunizieren, sondern mitunter eben auch mit Chatrobotern. Wir müssen wissen, dass Bots uns oft gute Dienste erweisen, aber auch zur Stimmungsmache eingesetzt werden können. Algorithmen erleichtern vieles, aber filtern auch einen Teil unserer Wahrnehmung. Es gibt immer noch zu viele Menschen, die denken, eine Google-Suche liefere bei ihrem Nachbarn die gleichen Ergebnisse wie bei ihnen selbst.