Ferngesteuerte Meinungsmache – Seite 1

Ungefähr 200 Millionen Menschen twittern (aktiv), die Börse twittert, Politiker twittern und rund zwanzig Millionen Bots tun es wohl auch. Twitter ist zum wertvollsten Datenlieferanten einer auf Geschwindigkeit getrimmten Wirtschaft und Gesellschaft geworden – und damit zunehmend zum Ziel von Manipulationen.

Gekaufte Follower oder computergesteuerte Accounts, die automatisch Spam-Links posten, sind dabei noch ein vergleichsweise plumper Versuch des Einflussdopings. Problematischer ist eine neue Generation von Bots, die gezielt menschliches Verhalten imitieren und damit erschreckend erfolgreich sind: die sogenannten sozialen Bots.

Allein der Handel mit gefälschten Nutzerprofilen hat ein jährliches Marktvolumen von geschätzt 40 bis 360 Millionen Dollar erreicht. Doch während Bots der ersten Generation problemlos an generischen Namen wie @Beatrix690 und offensichtlichen Retortentweets im Stil von The most funny video ever… erkennbar waren, imitieren soziale Bots geschickt menschliches Verhalten.

Standard-Bots, die stur Spam verteilen, werden mittlerweile von Twitter nach kurzer Zeit entdeckt und gesperrt. Das hat das Business-Modell der Bot-Bauer verändert. "Es geht nicht mehr um Reichweite, sondern um Beeinflussung", sagt Lutz Finger, Gründer und Direktor der Data-Mining-Firma Fisheye Analytics und Autor des Buches Competing On Data

Subtile Meinungsbeeinflussung

Das bedeutet: Social Bots verhalten sich die meiste Zeit unauffällig. Sie twittern nur gelegentlich und folgen dabei verschiedenen, vorher einprogrammierten Interessen. Sie folgen auch nur vereinzelt anderen Nutzern und adden nicht gleich Tausende Accounts. Über Wochen und Monate bauen sie eine gewisse Reputation auf und sind damit für Twitters Spam-Erkennung unsichtbar. Denn sie entsprechen in ihrem Verhalten den 40 Prozent Twitter-Nutzern, die primär Inhalte konsumieren und sich ansonsten zurückhalten.

"Spätestens wenn dieser Punkt erreicht ist, können Social Bots subtil, aber gezielt die Meinungsbildung auf Twitter beeinflussen", sagt Finger. Sie können durch Tweets und Retweets Traffic auf bestimmte Inhalte lenken, Stimmung gegen oder für Politiker machen oder sogar aktiv die Netzwerkbildung fördern, indem sie Brücken zwischen verschiedenen Accounts schlagen. Das kann bereits dadurch gelingen, dass zwei Accounts im selben Tweet erwähnt werden, wie eine aktuelle Studie belegt.

Wie viele soziale Bots es tatsächlich gibt, lässt sich kaum sagen, denn genau darin liegt das Problem: Sie sind nur schwer von Menschen zu unterscheiden und kaum zu identifizieren. Sicher ist nur, dass es mehr werden.

Je umfangreicher sich Twitter auf wirtschaftliche und politische Entscheidungsprozesse auswirkt, desto hartnäckiger versuchen Betrüger, die Daten in ihrem eigenen, beziehungsweise dem Interesse ihrer Auftraggeber zu manipulieren. Das meint längst nicht nur Twitter, alle sozialen Netzwerke sind von dem Problem betroffen. Tobias Knecht von Abusix, einem Dienstleister für professionelle Spambekämpfung, sagt, "dass soziale Netzwerke verstärkt mit verschiedensten Methoden angegriffen werden, um eine Vielzahl von Manipulationen der Nutzer und der Plattformen selber durchzuführen". Aufgrund seiner offenen Struktur aber wird Twitter am liebsten genutzt.

Wenn Algorithmen auf Algorithmen hereinfallen

Die Bot-Entwickler können dabei nur gewinnen. Denn auch wenn Twitter seine Algorithmen anpasst und Bots immer besser erkennt, lernen doch auch die Programmierer der Fake-Accounts. Beide Seiten nutzen dabei das sogenannte Machine Learning – die Fehlersuche und die Anpassung erfolgen automatisch. Es ist ein Wettrüsten, das die Bot-Entwickler anführen.

Doch sind es nicht nur Kriminelle, die sich für diese Verfahren interessieren. Auch Wissenschaftler bauen soziale Bots, um mehr über die Mensch-Maschine-Schnittstelle zu lernen. Der akademische Ehrgeiz hat zu einem regelrechten Wettkampf geführt: Seit 2011 gibt es die jährliche Social Bot Challenge beziehungsweise Competition, wie sie 2012 dann hieß.

Als Sieger ging 2011 der Fake-Account @JamesMTitus hervor, der innerhalb von zwei Wochen immerhin knapp 200 menschliche Reaktionen für sein computergesteuertes Verhalten erntete und es auf 756 Follower brachte.

Kurseinbruch nach gefälschtem Tweet

Accounts wie JamesMTitus sind dabei durchaus kreative Leistungen. Sie haben einen authentisch klingenden Namen, ein ansprechendes Profilfoto und eine Biografie. In einigen Fällen gehen die Botmaster sogar so weit, ihren Kreationen eigene Blogs und Profile in anderen sozialen Netzwerken einzurichten. Selbst Hobbys und Schlafrhythmen fließen in die Programmierung mit ein.

Aus solchen Versuchen wachsen bereits richtige Produkte. Die US-Armee hat 2011 für 2,67 Millionen Dollar eine sogenannte Persona Management Software in Auftrag gegeben. Lutz Finger ist sich dabei sicher, "dass neben den Vereinigten Staaten auch andere Länder solche Projekte verfolgen".

Das Problem, das derzeit noch etwas abstrakt klingt, wird in Zukunft wohl an Brisanz gewinnen. Denn wo heute noch in vielen Fällen menschliche Intelligenz als Korrektiv dient, werden zunehmend automatische Dienste auf Twitter aufsetzen, also Computerprogramme, die aus der Datenanalyse Entscheidungen ableiten.

Eine Vorahnung davon gab jüngst der Hack des Accounts der Nachrichtenagentur Associated Press. Über den Account wurde ein Tweet veröffentlicht, der eine Explosion im Weißen Haus verkündete. Obwohl AP den Account kurz darauf deaktivierte, reagierten die Börsen sofort mit Kurseinbrüchen. Einige Trading-Algorithmen verarbeiten unter anderem Twitter-Daten. Sie handelten in Sekundenschnelle.

Eine einfache Lösung für dieses komplexe Problem gibt es nicht. Wachsende Sensibilität für die Qualität der Daten, die unser Denken und Handeln beeinflussen, wäre sicher ein Anfang. Auch ethische Konzepte, um die Funktionsweise von Algorithmen transparent zu machen, könnten helfen. Die Entwicklung von Filtern, die diesen Umstand beherzigen, eine logische Konsequenz.