Wie Wissenschaftler den Social-Bot-Aberglauben kreierten

Florian Gallwitz (Technische Hochschule Nürnberg Georg Simon Ohm)

 

 

 

Verschwörungstheorien und „Fake News“ sollen sie verbreiten, ja eine Bedrohung für die Demokratie seien sie. Forscher warnen seit Jahren vor geheimnisvollen „Social Bots“, als menschliche Nutzer getarnten automatisierten „Meinungsrobotern”. Diese sollen auf Twitter zu Abertausenden unterwegs sein und, programmiert von finsteren Hintermännern, politische Diskussionen manipulieren. Doch der Glaube an Social-Bot-Armeen ist selbst eine ebenso abwegige wie toxische Verschwörungstheorie, die Benutzer von Sozialen Medien entmenschlicht und legitime politische Meinungsäußerungen diskreditiert.

Vor allem Forscher aus den Sozial-, Politik- und Kommunikationswissenschaften, weitgehend unbelastet von technischem Sachverstand, witterten vor wenigen Jahren in der Erforschung von „Social Bots“ ihre Chance. Bloß, wie sollten sie den Gegenstand ihrer Forschung finden? Das Betrachten einzelner Twitter-Accounts ist zeitraubend. Schlimmer noch, die Illusion vermeintlicher Botfunde wird dadurch regelmäßig zerstört. Ambitionierte Botforscher suchten deshalb nach Kriterien, anhand derer sich Bots automatisch aus großen Datensätzen extrahieren ließen. Losgelöst von lästigen konkreten Einzelfällen konnte die Diskussion so unmittelbar auf eine quantitative Ebene gehoben werden.

Eine radikal einfache Idee zur zeitsparenden Identifikation von Bots kam dem Soziologen Philip Howard. Ein Twitter-Account sei dann ein Bot, wenn er mehr als 50 Tweets pro Tag aussende. Howard lässt freilich offen, warum er die Schwelle nicht etwa bei 20 oder bei 500 angesetzt hat. Der Autor dieser Zeilen ist bei seiner seit 18 Monaten andauernden vergeblichen Suche nach auch nur einem einzigen Exemplar eines „Social Bots“ schon auf eindeutig menschliche Nutzer gestoßen, die in einer einzigen Stunde 200 Tweets abgesetzt haben. Unzählige teils prominente Twitternutzer gelten nach Howards Kriterium als Bots.

Einen anderen Ansatz, den hypothetischen Meinungsrobotern vollautomatisch auf die Schliche zu kommen, verfolgte der amerikanische Botforscher Emilio Ferrara. Wenn Computer mittels maschineller Lernverfahren in der Lage sind, Hunde von Katzen zu unterscheiden, warum dann nicht auch Menschen von „Social Bots“? Dumm nur, dass man hierfür repräsentative Stichproben beider Klassen benötigen würde. In Ermangelung von „Social Bots“ entschied er sich, eine Stichprobe von kommerziellen Spam-Accounts aus den Pionierjahren von Twitter unauffällig in „Social Bots“ umzudeklarieren und damit sein „Botometer“ zu trainieren. Das Ergebnis ist eine algorithmische Wünschelrute, die ohne erkennbares System Bewertungen zwischen 0 (Mensch) und 5 (Bot) vergibt. Zahlreiche Journalisten, Abgeordnete und Nobelpreisträger werden als Bots eingestuft, während etwa der automatisierte Account @big_ben_clock, der seit zehn Jahren stündlich die Glockenschläge des Londoner Wahrzeichens verkündet (“BONG BONG BONG”), als menschlich bewertet wird.

Wäre das Botometer nur eine amüsante Jahrmarktattraktion, könnte man es belächeln oder ignorieren. Tatsächlich fußt aber ein Großteil der wissenschaftlichen Literatur über „Social Bots“, in denen oft von zehntausenden Social-Bot-Funden berichtet wird, auf der Prämisse, dass dem Botometer vollständig zu vertrauen sei. Deshalb sind diese Veröffentlichungen das Papier nicht wert, auf dem sie gedruckt sind. Und das ist den Autoren durchaus bewusst. Fragt man diese nämlich nach nur einem einzigen konkreten Beispiel für einen „Social Bot“, so stehen sie stets, peinlich berührt, mit leeren Händen da.

Jeder einzelne angebliche Fund eines „Social Bots“, über den in der „Social-Bot-Literatur“ und in Zeitungsartikeln berichtet wird, lässt sich durch diese und andere methodische Fehler und Taschenspielertricks erklären. Das Problem ist den einschlägigen Forschern längst bekannt. Es ist an der Zeit, dass in diesem aus dem Ruder gelaufenen Forschungsgebiet die Selbstkorrekturmechanismen der Wissenschaft in Gang kommen.