Bot or not? Social-Media-Forschung und die Bewer­tung uner­wünsch­ter Popu­la­ri­tät (2023)

Bevor Elon Musk im Oktober 2022 Twitter übernahm, versuchte er den Kauf mit dem Argument zu verhindern, die Plattform könne keine genaue Auskunft über die Anzahl der Bot-Accounts auf Twitter geben. Möglicherweise handelte es sich dabei um einen Vorwand, um den Kauf zu seinen Gunsten zu beeinflussen. Musk griff eine Vorstellung auf, die seit mehr als zehn Jahren durch den öffentlichen Diskurs geistert und auch in der Social-Media-Forschung immer wieder eine Rolle spielt: Bots täuschen und manipulieren, indem sie eigentlich repräsentative Vermessungen von Popularität auf Social-Media-Plattformen verfälschen oder Desinformation gezielt verbreiten. Um Verfälschung und Manipulation entgegenzuwirken, müssten sie enttarnt und entfernt werden.

Für die Forschung leitet sich daraus ein Fokus auf Bot-Erkennung ab, der jedoch nicht nur die tatsächliche Rolle von automatisierten Accounts in der Fabrikation von Diskursen verkennt, sondern auch eine grundsätzliche Repräsentativität von Social-Media-Accounts unterstellt, die eigentlich nur um falsche Accounts bereinigt werden müssen.

Im Jahr 2011 kamen die ersten Untersuchungen zur Rolle automatisierter Accounts in politischen Diskursen auf. Zuvor waren Bots vor allem im Zusammenhang mit Cybersicherheit thematisiert worden und bezeichneten dort vor allem autonom operierende Software, die Malware oder Spam verbreitet, nicht aber die verbreitenden Accounts. Ratkiewiecz et al. sowie Thomas et al. beobachteten die Aneignung von Spam-Praktiken in Desinformationskampagnen auf Twitter, etwa durch das massenhafte Verbreiten von Links oder Hashtag-Bombings – und übernahmen den Bot-Begriff, um die involvierten Accounts zu bezeichnen. Ob die Accounts automatisiert agieren, spielt dafür zunächst keine Rolle (Ratkiewicz et al. 2011; Thomas et al. 2012).

In den darauffolgenden Jahren entstanden zahlreiche Arbeiten über den Einfluss von Bots auf politische Diskurse in den sozialen Netzwerken, etwa im Zusammenhang mit dem syrischen Bürgerkrieg (Abokhodair et al. 2015), der Präsidentschaftswahl 2015 in Sri Lanka (Rhatnayake/ Buente 2017), dem Brexit (Bastos/ Mercea 2019) oder der Covid-19-Pandemie (Antenore et al. 2022). Gewarnt wird vor den manipulativen Effekten von Bot-Netzwerken, die vor allem durch den falschen Anschein von Popularität erzielt werden (Ferrara et al. 2016, S. 98f). Der Einsatz von Bot-Accounts nutzt dann die Metrisierung der Plattformen aus, indem sie automatisiert massenhaft darauf einzahlen und somit Sichtbarkeiten erhöhen.

Die Bot-Forschung verweist zwar auf diesen Zusammenhang von Manipulation und Plattform-Metriken - doch zugleich betont sie auch immer wieder die Nicht-Menschlichkeit von Bots und deutet damit an, dass das Täuschungsmoment nicht nur auf falscher Popularität, sondern auch auf der Imitation von echten menschlichen Accounts beruht. Daraus scheint der Ruf nach exakten Erkennungs- oder Demaskierungsmethoden zu erwachsen, die nicht selten auf der Unterscheidung von Bot-Verhalten und typisch menschlichem Verhalten basieren.

Möglichst genaue Erkennungsmethoden versprechen durch das Bestimmen des Bot-Anteils in einem Diskurs eine Annäherung an den Grad seiner Manipulation. Demnach müsste man nur die Aktivitäten der Bots herausrechnen, um die tatsächliche, organische, natürliche Popularität von Themen, Tweets oder Accounts zu bestimmen. Kritiker:innen des Bot-Paradigmas verweisen darauf, dass nicht nur automatisierte Accounts, sondern auch manuell betriebene Accounts in orchestrierten Manipulationsversuchen eingesetzt werden (Bastos, Farkas 2019/ Keller et al. 2022). Dies erschwert eine Erkennung, die auf der Unterscheidung von menschlichem und nicht-menschlichen Verhalten basiert. Doch auch der Verweis auf solche manuell gesteuerten „Sockpuppets“ (Gorwa/ Guilbeault 2020) folgt unkritisch der Akteurs-Definition der Plattformen (Gerlitz/ Weltevrede 2020), wonach ein Account auf einen individuellen Akteur zurückführbar ist. Die Bot- und Fake-Account-Forschung verhandelt also vor allem, was eine legitime Account-Nutzung darstellt.

Ghost-Twitterer, Backup-Accounts und gutartige Bots

Diese Verhandlung findet schon seit den Anfängen von Twitter statt. Bereits 2008 taucht in einem Fan-Wiki eine Liste von „Non-Person-Twitterers“ auf, die hier zum einen promotet, aber eben auch als nicht-persönliche Accounts transparent gemacht werden. Sie enthält die Konten von Medienhäusern, Organisationen oder Events. Die New York Times veröffentlicht 2009 einen Artikel über sogenannte „Ghost-Twitterer“, in dem erstaunt festgestellt wird, dass die Twitter-Accounts von Britney Spears, Ron Paul und 50 Cent nicht etwa von ihnen selbst, sondern von ihren Social-Media-Manager:innen betrieben werden, wobei diese Job-Bezeichnung zu diesem Zeitpunkt noch nicht existierte (Cohen 2009).

Unternehmensaccounts und Social-Media-Manager:innen sind heute keinen Artikel oder Wiki-Eintrag mehr wert. Es erscheint als vollkommen legitim, dass Prominente mindestens Unterstützung bei der Pflege ihrer Profile in Anspruch nehmen und dass Organisationen, Institutionen oder Events eigene Accounts unterhalten. Auch nicht weiter problematisiert wird, dass diese Accounts dann in die Vermessung von Followern, Kommentaren oder Likes einzahlen – und damit Sichtbarkeiten steigern. Wenn verwandte Unternehmensaccounts dazu ihre Beiträge gegenseitig liken oder kommentieren, finden Nutzer:innen das womöglich needy, aber nicht unbedingt manipulativ.

Gewisse Nutzungsweisen von Accounts, die nicht der Plattformdefinition eines Akteurs entsprechen, haben sich also im Laufe der Jahre etabliert. Andere wurden nie hinterfragt, wie etwa automatisierte Accounts, die in der Bot-Forschung als „gutartig“ (Ferrara et al. 2016, S. 96) bezeichnet werden: Accounts, die automatisiert Wettervorhersagen posten oder virtuelle Geschenke überreichen.

Bot-Forschung verhandelt nicht nur die Diskrepanz zwischen dem, was die Plattform als Akteur ausweist, und dem, woraus sich dieser ausgewiesene Akteur tatsächlich zusammensetzt (Gerlitz/ Weltevrede 2020). Untersuchungen von automatisierten Accounts in politischen Diskursen verweisen zurecht auf ihre Rolle in guerillaartigen Popularisierungsstrategien, wie Hashtag-Bombing oder der Verbreitung von Falschinformationen (Neudert et al. 2019). Bei der Erforschung dieser Phänomene müssen jedoch neben dem Einsatz solcher Accounts auch weitere Praktiken einbezogen werden (Keller et al. 2022).

Real oder fake?

Grundsätzlich ist fraglich, ob so etwas wie „Manipulation“ der Popularitätsvermessung durch Social Media überhaupt erforscht werden kann. Vermuteter Manipulation liegt immer ein Demaskierungsbestreben zugrunde. Es gilt aufzudecken, wer wie auf welche Zahlen bewusst Einfluss genommen hat – oder in vielen Fällen auch, wie etwas populärer erscheinen konnte, als es eigentlich ist. Der Vorwurf der Manipulation arbeitet sich an der Kluft zwischen der Definition von Plattform-Metriken und den sie produzierenden Praktiken ab und damit zwischen dem, was zählen darf, und dem, was nicht zählen sollte, aber trotzdem zählt.

Doch die Grenze zwischen legitimen Versuchen, die Popularität von Beiträgen zu steigern, und manipulativen Amplifikationspraktiken ist unscharf. Wenn die Fans von Taylor Swift oder BTS sich gegenseitig zum massenhaften Streamen neuer Songs animieren, um Chart-Platzierungen zu sichern, ist das eine effektive Form von Fan-Power. Wenn die Klicks stattdessen von Clickfarms kommen, handelt es sich hingegen eindeutig um Manipulation. So scheint es zunächst. Aber stimmt diese Unterscheidung auch noch, wenn Fans die Geräte beim Streamen stumm geschaltet haben?

Versuche der Optimierung von Popularität fangen bereits bei der Produktion von Content an, z.B. beim präzisen Timing der Veröffentlichung eines Videos, Beitrags oder Tweets. Social Media Tools helfen dabei zu bestimmen, wann die meisten Follower:innen online sind – wodurch schneller mehr Engagement erreicht werden kann. Ist das schon eine Manipulation der echten Zahlen? Immerhin regte der Beitrag ja wirklich zur Interaktion an, zu einem anderen Zeitpunkt hätten ihn jedoch weniger Menschen gesehen.

Beteiligt sich Social-Media-Forschung nun an der Bestimmung, ob Popularität real oder fake, manipuliert oder natürlich gewachsen ist, dann verschiebt sie die Verantwortung für ihre handfesten Konsequenzen – Buch-/Arbeits-/Plattenverträge, Talkshow-Einladungen, die Setzung von Themen im politischen Diskurs oder sogar Wahlerfolge – hin zu den manipulierenden Übeltätern und verkennt, dass es sich dabei um längst etablierte Dynamiken handelt, an denen unterschiedliche Akteursgruppen und vor allem die Methoden der Popularisierung durch Social Media beteiligt sind. Sie gesteht Social-Media-Metriken die Möglichkeit der Repräsentativität zu (nach der Bereinigung von falschen Zahlen) und verunmöglicht damit nicht nur die Beschreibung ihres tatsächlichen Charakters, sondern stützt auch ihre Nutzung als valide Entscheidungsgrundlage. Vor allem stärkt sie so die Macht von Plattform-Unternehmen und nimmt sie zugleich in Schutz. Denn als verantwortlich für unerwünschte Entwicklungen erscheinen dann die Drahtzieher hinter Bots, Astroturfern oder gekauften Followern. Die Verantwortung der Plattformen beschränkt sich dagegen allein auf deren Entfernung.

Literatur

Abokhodair, N./ Yoo, D., McDonald D. W.: Dissecting a Social Botnet: Growth, Content and Influence in Twitter. In: CSCW ’15: Proceedings of the 18th ACM Conference in Computer Supported Cooperative Work & Social Computing (2015). S. 839-851.

Antenore, M./ Camacho Rodriguez, J. M./ Panizzi, E.: A Comparative Study of Bot Detection Techniques With an Application in Twitter Covid-19 Discourse. In: Social Science Computer Review, 0(0) (2022). DOI: 10.1177/08944393211073733.

Bastos, M./ Farkas, J.: “Donald Trump Is My President!”: The Internet Research Agency Propaganda Machine. In: Social Media + Society, 5(3) (2019).
DOI:10.1177/2056305119865466

Bastos, M./ Mercea, D.: The Brexit Botnet and User-Generated Hyperpartisan News, Social Science Computer Review, 37(1) (2019), S. 38–54. DOI:10.1177/0894439317734157.

Cohen, Noam: When Stars Twitter, a Ghost May Be Lurking. In: The New York Times (2009), URL: https://www.nytimes.com/2009/03/27/technology/internet/27twitter.html (abgerufen am 29.September 2022).

Ferrara, E./ Varol, O./ Davis, C./ Menczer, F./ Flammini, A.: The Rise of Social Bots. In.: Communications of the ACM 59 (7) (2016), S. 96-104.

Gerlitz, C./ Weltevrede, E.: What happens to ANT, and its emphasis on the sociomaterial grounding of the social, in digital sociology? In: The Routledge Companion to Actor-Network Theory, hrsg. von Anders Blok, Ingacio Farias, Celia Roberts, London, New York: Routledge 2020, S. 345-356.

Gorwa, R./ Guilbeault, D.: Unpacking the Social Media Bot: A Typology to
Guide Research and Policy’. In: Policy & Internet 12(2) (2020), S. 225-248.

Keller, F./ Schoch, D./ Stler, S., Yang, J.: Political Astroturfing on Twitter: How to Coordinate a Disinformation Campaign. In: Political Communication 37(2) (2020), S. 256-280.

Neudert, L.-M./ Howard, P./ Kollanyi, B.: Sourcing and Automation of Political News and Information During Three European Elections. In: Social Media + Society, 5(3) (2019). DOI:10.1177/2056305119863147.

Rathnayake, C./ Buente, W.: Incidental Effects of Automated Retweeting: An Exploratory Network Perspective on Bot Activity During Sri Lanka’s Presidential Election in 2015. In: Bulletin of Science, Technology & Society, 37(1) (2017), S. 57-65. DOI:10.1177/0270467617736219.

Ratkiewicz, J./ Conover, M./ Meiss, M./ Gonalves, B./ Flammini, A./ Menczer, F.: Detecting and tracking political abuse in social media. In: Proc. 5th
International AAAI Conference on Weblogs and Social Media (ICWSM) (2011) S. 297-304. DOI:10.1609/icwsm.v5i1.14127.

Thomas, K./ Grier, G/ Paxon, V.: Adapting social spam infrastructure for political censorship. In: Proceedings of the 5th USENIX conference on Large-Scale Exploits and Emergent Threats, USENIX Association (2012) S. 13.