Themenspezial: Verbraucher & Service Künstliche Intelligenz

Automatisierte Meinungsmache: So enttarnt man Social Bots

In sozialen Netzwerken melden sich immer öfter auch Maschinen zu Wort. Das ist problematisch, wenn die Programmierer der sogenannten Social Bots Diskussionen beeinflussen und Meinungen manipulieren wollen. Nutzer sollten wissen, mit wem sie es zu tun haben.
Von dpa / David Rist

Das Icon des Nachrichtendienstes Twitter ist auf einem Monitor durch eine Linse zu sehen, während weitere Icons daneben angeordnet sind. Gerade bei Twitter finden sich viele Social Bots
Bild: (c) dpa
Von Mensch zu Mensch - das war einmal: US-Forscher gehen davon aus, das allein bei Twitter bis zu 15 Prozent der Accounts automatisch von Computer-Software mit Tweets beschickt werden. Diese Bots von Menschen aus Fleisch und Blut zu unter­scheiden, ist inzwischen überraschend schwierig: Wenn sie nicht ganz plump programmiert sind, sehen viele Bot-Profile auf den ersten Blick wie ganz normale Nutzer aus. Erkennungs­programme versagen. Was derzeit bleibt, sind der gesunde Menschen­verstand und Indizien, die helfen können, Bots bei Facebook, Twitter & Co zu enttarnen:

Seriosität

Das Icon des Nachrichtendienstes Twitter ist auf einem Monitor durch eine Linse zu sehen, während weitere Icons daneben angeordnet sind. Gerade bei Twitter finden sich viele Social Bots
Bild: (c) dpa
Zunächst sollte man prüfen, wer dem angeblichen Account-Inhaber überhaupt folgt. Denn Bot und Bot gesellt sich gern. Hilfreich kann es auch sein, Profil­bild und -beschreibung genauer unter die Lupe zu nehmen: Ein aus dem Netz kopiertes Foto ist ebenso verdächtig wie eine fehlende oder sinnlose Profil­beschreibung, informiert das von der Landes­medien­anstalt Nordrhein-Westfalen mitgetragene Medien­portal Handysektor.de.

Inhalte

Indizien für einen Bot-Account können von Thema, Tenor oder Quellen­verweis her immer ähnlich lautende Post sein. Bots posten zudem oft sehr viele Inhalte, führen aber kaum Dialoge oder stören solche gezielt, etwa mit Beleidigungen oder Provokationen. Verdächtig sind auch seltsamer Satz­bau oder wieder­kehrende Grammatik­fehler.

Likes und Follower

Verteilt ein Account massenhaft Likes, kann das Handysektor.de zufolge ein weiteres Indiz für eine Bot-Tätigkeit sein. Umgekehrt ernten Bot-Posts oft kaum Likes oder Kommentare.

Aktivität

Mehrere Dutzend Posts am Tag - können die von einem einzigen Menschen stammen? Regelmäßig wird in diesem Zusammen­hang die Zahl 50 genannt: Ab dieser Zahl Postings pro Tag soll man es wahr­scheinlich mit einem Bot zu tun haben. "Das ist natürlich eine beliebige Definition. Es gibt auch Menschen, die so oft posten", sagt der Wirtschafts­informatiker Christian Grimme von der Uni Münster. "Daran allein kann man es nicht festmachen." Auf der Suche nach Gewiss­heit könne man etwa auch schauen, ob der Account einen menschlichen Tag-Nacht-Zyklus verfolgt. "Aber selbst das reicht nicht aus."

Reaktionszeit

Bots können rasend schnell reagieren, weil sie rund um die Uhr das jeweilige soziale Netzwerk nach den vom Programmierer vorgegeben Schlüssel­wörtern oder Hashtags durchsuchen. Ganz plakativ zeigt das auf Twitter etwa der bekannte Bot-Account Pfannkuchen­polizei. Schreibt jemand in einem Beitrag das Wort "Berliner", meldet der Bot sich umgehend mit einem Hinweis, dass der Berliner in Berlin nun einmal Pfann­kuchen heißt.

Weiterentwicklung

Es gibt aber längst Bots, deren Entwickler versuchen, bekannte Erkennungs­merkmale zu vermeiden. Einige haben echte Profil­bilder, setzen absichtlich nicht zu viele und nicht zu wenige Nachrichten ab, folgen nicht beliebig oder simulieren in ihren Posts sogar menschliche Tages­abläufe, Denk­pausen oder Nacht­ruhe, um nicht aufzufallen. Automatisch lassen sich diese Bots oft nicht zuverlässig erkennen, sagt Christian Grimme, der das Projekt Propstop [Link entfernt] leitet, das Propaganda-Angriffe über Online-Medien untersucht.

Prüfseiten

Von Social-Bot-Prüfseiten à la Botometer (Indiana University) oder Debot [Link entfernt] (University of New Mexico), die per Muster­erkennung arbeiten, hält Grimme nicht viel: Im Rahmen des Propstop-Projektes haben die Wissen­schaftler "unauffällige" Bots gebaut und die Accounts zur Prüfung auf den Seiten angegeben. "Diese Verfahren haben auch bei unseren Bots weit­gehend versagt", fasst Grimme die Ergebnisse zusammen.

Die Erkennungs­raten hätten bei rund 50 Prozent gelegen. "Mit dieser Information kann ich natürlich nichts anfangen, ich muss mich dann doch hinsetzen und mir den Account selber angucken", sagt der Informatiker. Einfach gestrickte Bots identifizierten die Prüf­seiten relativ leicht. Das schaffen Menschen meist aber auch.

Bot-Armeen

"Von der technischen Seite ist es wichtig zu bedenken, dass diese Bots im Prinzip beliebig skalierbar sind: Wer ein Programm hat, mit dem sich ein Bot steuern lässt, kann damit auch eine ganze Armee von Bots lenken", schreibt Simon Hegelich, Professor für Political Data Science an der TU München in einem Paper. Solche Bot-Heere sind im Netzwerk Twitter bereits entdeckt worden.

Eine hoch­wertige Software, mit der sich ein Verbund von bis zu 10000 Twitter-Accounts steuern lässt, ist Hegelich zufolge für 500 US-Dollar (rund 425 Euro) zu haben. Fehlen nur noch Konten für die Bots. Aber auch die sind Hegelich zufolge käuflich: 1000 gefälschte Konten kosten zwischen 45 US-Dollar (38 Euro) für einfache Twitter-Accounts und 150 US-Dollar (128 Euro) für "gealterte" Facebook-Accounts.

Trend Hybrid-Bots: Halb Mensch, halb Maschine

Social Bots werden meist als vollständig automatisierte Accounts wahr­genommen. "Ich glaube, das ist nur zum Teil wahr", sagt der Wirtschafts­informatiker Christian Grimme, der an der Uni Münster das Bot-Forschungsprojekt Propstop leitet. Oft sei nur ein Teil der Aktivität automatisiert - eben alles, was lästig ist. "Die andere Seite ist, Inhalte zu produzieren, und Inhalte so zu produzieren, dass hinter­her nicht mehr auffällt, dass dieser Account ein Bot ist." Diese Aufgabe kommt im Zweifel wieder einem Menschen zu, was automatische Erkennungs­methoden extrem erschwere.

Der Trend gehe in Richtung dieser Hybrid­form: "Durch die Entwicklung unserer eigenen Bots konnten wir zeigen, dass das nicht besonders schwer ist", sagt Grimme. "Der Aufwand dafür ist nicht mehr als drei, vier Tage Entwicklungs­arbeit." Die Idee, Bots mit komplexen Fragen, auf die keine adäquate Antwort zurückkommt, zu enttarnen, greift daher unter Umständen zu kurz. "Wenn es ein hybrides System ist, könnte ich das als Bot-Betreiber einfach umgehen, indem ich tatsächlich auch selbst antworte."

Ob Social Bots bei der anstehenden Bundes­tags­wahl in Deutschland auch eine Rolle spielen werden, ist fraglich. Während der US-Wahl im vergangenen Jahr wurden Social Bots jedefalls schon eingesetzt.

Mehr zum Thema Social Media