Social MediaDie Stimmung des Netzes erfassen

Was denken die Menschen? Ihre Meinungen können mit automatisierten Verfahren analysiert werden, fast in Echtzeit. Politiker und Unternehmen interessiert das brennend. von Astrid Herbold

Barack Obama nutzt für seinen Wahlkampf auch soziale Medien wie Twitter.

Barack Obama nutzt für seinen Wahlkampf auch soziale Medien wie Twitter.  |  © Brendan Smialowski/Getty Images

Erst mal keine Überraschung: Barack Obamas Net Sentiment , also die Stimmung in den sozialen Netzwerken zu seinen Gunsten, betrug während der drei TV-Duelle im Schnitt plus elf Prozent, Mitt Romney schaffte insgesamt nur minus acht Prozent. Beim republikanischen Herausforderer standen 2,3 Millionen negative Kommentare 1,9 positiven Erwähnungen gegenüber, beim Amtsinhaber waren es 2 Millionen positive versus 1,6 Millionen negative Äußerungen. Die Passion Intensity , also der Aufregfaktor Romneys, lag bei 55. Obama, über den sich die Gemüter insgesamt weniger erhitzten, kam auf einen Wert von 35.

Was sind das für Zahlen und Bewertungen, wer erhebt sie, wie kommen sie zustande? Der Softwarekonzern SAP hat sie zur Verfügung gestellt, das dazugehörige Sentiment Analysis Tool ist eigentlich ein Programm für Werbetreibende – und SAP einer von vielen Anbietern, die gerade mit einem solchen Werkzeug auf den Markt drängen. Fast in Echtzeit lässt sich mit ihnen auswerten, mit welchem Unterton im Internet über ein Thema, ein Produkt, ein Ereignis oder eine Person gesprochen wird.

Anzeige

Bislang analysieren viele Unternehmen das Raunen der Massen noch mit teils manuellen Verfahren, die komplett automatisierte Softwarelösung ist die nächste Generation des Social Media Monitorings . Kein Praktikant mehr nötig, der Facebook-Foren überfliegt oder Twitter nach abwegigen Hashtags durchstöbert.

Kommentare auch verstehen

Nicht nur das Sammeln der gigantischen Datensätze, auch das Lesen und Interpretieren übernimmt nun der Computer. "Beim letzten amerikanischen Wahlkampf vor vier Jahren konnten wir lediglich auswerten, was die Menschen angeklickt oder weiterempfohlen haben", sagt SAP-Manager Craig Downing. "Jetzt können wir verstehen, was sie in ihren Kommentaren schreiben." Und das schon wenige Minuten, nachdem die Diskussion überhaupt stattgefunden hat.

Semantische Analyse heißt das Zauberwort. Interesse haben daran viele, vor allem aus wirtschaftlichen Gründen . Doch ist das weitaus komplexer als das schlichte Zählen von Adjektiven oder Schimpfwörtern. Als Beispiel nennt Downing die Sätze "Das iPhone war noch nie so gut" und "Das iPhone war noch nie gut". "Ein zusätzliches Wort – und der Inhalt der Aussage unterscheidet sich fundamental." Dazukommen Slang oder Abkürzungen, grammatische Besonderheiten und mehrdeutige Modeworte wie sick (das von cool bis abartig alles heißen kann).

Damit nicht genug. Die aus dem Netz millionenfach zusammengeklaubten Mitteilungen müssen auch nach Relevanz gewichtet werden: Wer ist der Absender, wie einflussreich ist seine Meinung, wie oft wird sie gelesen, wie oft wird ihr widersprochen oder zugestimmt? Das Programm liest dazu – zum Teil im Sekundentakt – Hunderte von Newsseiten, Blogs und sozialen Netzwerken aus, bezieht bei der Auswertung der Quellen Informationen wie Seitenaufrufe, geografischer Standort, den Klout-Score und das mutmaßliche Geschlecht des Absenders mit ein. Doch wie korrekt, verlässlich oder vollständig sind diese zusätzlichen Parameter?

Methoden sind noch ungenau

"Aus wissenschaftlicher Sicht sind die Methoden vieler kommerzieller Anbieter intransparent und oft auch ungenau", sagt Stefan Stieglitz, Professor für Wirtschaftsinformatik an der Universität Münster . Er betreut derzeit zwei interdisziplinäre Forschungsprojekte zur Diskursanalyse und Themendynamiken in Social Media, eins davon finanziert das Bundesministerium für Bildung und Forschung , das andere die Deutsche Forschungsgemeinschaft .

Zusammen mit Computerlinguisten und Kommunikationswissenschaftlern will Stieglitz in den kommenden Jahren die dringend nötige Grundlagenforschung betreiben. "Es geht darum, automatisierte Verfahren zu entwickeln, mit denen Meinungsfragmentierung und Konsensbildung im Netz abgebildet werden können." Die Sentiment-Analyse ist dabei nur ein methodischer Baustein, sie wird ergänzt von der sozialen Netzwerkanalyse (wie verbreiten sich Themen?) und einer automatisierten Inhaltsanalyse (welche Schlagworte tauchen gemeinsam auf?).

Leserkommentare
  1. Um Ihren m.E. ziemlich naiven und unausgegorenen Gedanken mal aufzugreifen: Die Repräsentativität kommt nicht allein dadurch zustande, dass sie jedem zwangsweise einen "Zugang zum Netz" verordnen, sondern aufgrund der im Artikel beschriebenen Methode allein dadurch, dass dann auch alle die Geräte ständig bedienen müssten, denn nur das, was an Input in Twitter und sonstwo erscheint, wird erfasst und kann ausgewertet werden.

    Und überdies, haben Sie sich auch mal die Frage gestellt, wem das alles nützen, zu welchem Zweck der Aufwand betrieben werden soll? Die Informationen kann man mit der erwähnten Methode nur direkt an den Quellen der Provider bzw. Konzerne (Facebook etc.) usw. abgreifen und wer hat da Zugriff? Sie? Ich? Vier alle? Nein, nur ein paar Ausgewählte werden da die Möglichkeit haben, etwas im Netz zu erheben und die Information zu verwerten. Hier geht es doch um knallharte Macht- und Herrschaftstechnik und nicht um eine rosa basisdemokratische Piratenherrschaft.

    Momentan werden die bereits erhobenen Informationen doch einzig und allein dazu benutzt, um uns über Werbung und zunehmend auch über als Journalismus getarnte Falschinformationen (PR genannt) zu manipulieren und zu bevormunden (siehe Beispiel im Artikel).

    Und in Zukunft ist natürlich die Politik an den Informationen interessiert, weil sich hier völlig neue Möglichkeiten politischer Kontrolle, Manipulation und Herrschaft auftun. Glauben Sie ernsthaft, diese Instrumente bekäme "das Volk" in die Hand?

    • Rychard
    • 30. Oktober 2012 8:08 Uhr

    sozialen Stimmungen sind in Händen von eigennützigen und kurzfristigen oder verantwortungslosen Monopolisten keine Hilfe zur Lösungsfindung von grundsätzlichen Problemen ..

  2. Amüsant finde ich den reflexartigen Aufschrei, dass derlei "ausgespähte" Informationen in den Händen der Mächtigen aus Wirtschaft und Politik nichts zu suchen hätten, auf der anderen Seite aber die (absolut berechtigte) Forderung nach freiem Informationsfluss im Netz einfach nicht verstummen will.

    Zunächst stellt sich natürlich die Frage nach der Abgrenzbarkeit: für wen dürfen Informationen frei (erhoben werden und) fließen und für wen nicht? Legt man dazu einen noch zu definierenden Werte- und Moralindex an, der abbildet, wie gut oder schlecht die Dinge sind, die die Adressaten der Informationen damit anstellen könnten?

    Weiterhin gehört die grundsätzliche Unterstellung, Politik und Industrie würden daraus gewonnene Erkenntnisse ausschließlich zum Nachteil des Konsumenten/Wählers nutzen, mittlerweile zwar zum guten Ton, nachvollziehen kann ich sie trotzdem nicht. Was spricht denn dagegen, Entscheidungsträger näher an die Meinung der Konsequenzenträger zu bringen?

    Persönlich bin ich auch nach diversen Vorteilsnahme- und Plagiats"skandalen" überzeugt, dass das Gros der Politiker ihrer Tätigkeit aus ideologischen Beweggründen nachgehen. Dass die dabei eingeschlagenen Wege nicht selten in die falsche Richtung gehen, liegt m.E. in erster Linie an einem Informationsdefizit bzw. gezielter Desinformation durch Lobbygruppen o.ä..
    Und dem kann ich nur entgegenhalten: gebt ihnen die Informationen; lasst sie doch wissen, was die Basis denkt. Nur so können wir adäquat vertreten werden!

Bitte melden Sie sich an, um zu kommentieren

Service