Facebook hat Hunderttausende seiner Nutzer zu Versuchskaninchen gemacht, um in einer groß angelegten Studie herauszufinden, wie sich positive und negative Emotionen in Netzwerken verbreiten. 2012 war das. Das Unternehmen hatte damals eine Woche lang die Timeline von knapp 700.000 seiner Mitglieder manipuliert. (Die Timeline setzt sich zusammen aus Einträgen von Freunden und dem, was Seiten veröffentlichen, denen ein Nutzer folgt.) Die eine Gruppe bekam überdurchschnittlich viele negativ besetzte Einträge, die andere überdurchschnittlich viele positiv konnotierte Einträge zu sehen. Ziel war es herauszufinden, ob manipulierte Nachrichten auch die Gefühle der Netzwerknutzer manipulieren. 

Vor einigen Wochen wurden die Ergebnisse der Studie veröffentlicht, und nun folgt mit etwas Verspätung die Reaktion auf das Vorgehen von Facebook. Durfte Facebook das überhaupt? Haben sich die beteiligten Wissenschaftler etwas vorzuwerfen? War es ein Einzelfall? Und hat sich das Ganze überhaupt gelohnt?

Zu welchem Ergebnis kommt die Studie?

Diejenigen unfreiwilligen Studienteilnehmer, die weniger negative Einträge in ihre Timeline gespült bekamen, schrieben selbst häufiger etwas Positives. Und umgekehrt: Verringerten die Autoren der Studie die Anzahl der positiven Einträge in einer Timeline, schrieb der Betroffene häufiger selbst etwas Negativ konnotiertes. Neu daran ist die Erkenntnis, dass diese emotionale Ansteckung ohne direktes Interagieren funktioniert. Dieser Effekt ist jedoch sehr marginal und bewegt sich im Nachkommabereich. Adam Kramer, Mitglied des Data-Science-Teams von Facebook und Autor der Studie, schreibt in einem Eintrag bei Facebook, der Effekt würde sich bei einem großen Netzwerk wie Facebook quantitativ dennoch stark auswirken.

Darf Facebook meine Daten für solche Studien verwenden?

Auf dem Papier ja, zumindest jetzt, denn Facebook lässt sich die Verwendung von Nutzerdaten in seiner Datenverwendungsrichtlinie einräumen. Nutzer erkennen dieses Dokument bei der Registrierung an. Darin führt Facebook auch die Verwendung von Nutzerdaten zur Forschung auf. Als die Studie durchgeführt wurde, stand in der Richtlinie allerdings noch nichts von Forschung. Den Begriff fügte Facebook erst einige Monate danach hinzu, wie das Magazin Forbes herausgefunden hat. Zudem haben die Facebook-Forscher für ihre Studie die Timeline ihrer Nutzer bewusst manipuliert. Die Studie bewegt sich damit zumindest in einem Graubereich.

Wie aussagekräftig ist die Studie?

Die Frage lautet eigentlich: Kann man Emotionen in eine Formel packen? Man kann, sagen zumindest Wissenschaftler wie John Grohol. Nur haben die Autoren um Adam Kramer laut Grohol dafür die falsche Softwarebenutzt, sie heißt Linguistic Inquiry and Word Count Application (LIWC 2007). Die Software zählt positive und negative Schlagwörter eines Textes. Sie sei für lange Texte ausgelegt, sagt Grohol, bei knappen Einträgen seien die Ergebnisse dagegen kaum zu gebrauchen.

Der Satz 'Ich hatte einen guten Tag' wird beispielsweise aufgrund des Adjektivs gut mit einem Positivpunkt gewertet. Kommt nun Ironie in die Sätze, führt diese Zählweise zu falschen Ergebnissen. Der Ausspruch 'nicht schlecht' wird zweifach negativ gewertet, 'nicht' und 'schlecht' zählen beide als Negativpunkte. Bei längeren Texten werden solche Fehler eher von vielen richtig interpretierten Worten ausgeglichen, in einem knappen Facebook-Eintrag nicht.

Hätten die Studienteilnehmer eine Einverständniserklärung unterzeichnen müssen?

Facebook argumentiert, das sei nicht nötig. Die Nutzer hätten der Studie mit dem Akzeptieren der Datenverwendungsrichtlinie bereits zugestimmt. Mit diesem Vorgehen werden allerdings die Anforderungen an eine wissenschaftliche Studie unterlaufen. Für die gibt es in den USA einen ethischen Kodex, über den das Institutional Review Board (IRB) wacht, vergleichbar mit der deutschen Ethikkommission. Das IRB wurde als Reaktion auf Menschenversuche der Nazis und das Tuskegee-Experiment gegründet.

Allerdings gelten die Regeln der IRB nur für staatliche Stellen und Universitäten. Es listet einige Standards auf, darunter auch die Einverständniserklärung der Teilnehmer. Die umfasst jedoch nicht nur die Zustimmung zu einer möglichen Studie. Die Teilnehmer einer Studie müssen auch im Nachgang der Studie erfahren, dass sie Teilnehmer waren. Facebook hat nirgends erwähnt, ob die knapp 700.000 Nutzer über die Studie informiert wurden. Man hätte die Nutzer allenfalls "über die Natur des Experiments in die Irre führen" dürfen, um die Ergebnisse nicht zu verfälschen, schreibt Lars Fischer.

Wurde die Studie überprüft?

Ja, sagt Susan Fiske, die für die Studie an der Princeton University zuständig war. Das gelte zumindest für die inhaltliche Seite, also die Datenanalyse. In einem Interview mit The Atlantic erklärte sie, das Datenmaterial habe bei Eingang der Studie bereits vorgelegen. Die Erhebung der Daten und damit die Frage nach der Einverständniserklärung wurde folglich ausgeklammert. Fiske sagt außerdem, für ein Unternehmen könnten nicht die gleichen ethischen Maßstäbe gelten wie für Universitäten und staatliche Stellen.

Wer hat die Studie in Auftrag gegeben, wer hat sie finanziert?

Die Studie hat Facebook finanziert. Zeitweise wurde das Army Research Office als Sponsor aufgeführt, das wurde mittlerweile aber zurückgenommen.

Haben sich die Autoren zu den Vorwürfen der Nutzer geäußert?

Ja. In einem Eintrag schreibt Facebook-Mitarbeiter Adam Kramer, man habe niemanden verärgern wollen. Die Art der Veröffentlichung sei unglücklich gewesen, man habe aber seit 2012 – in dem Jahr wurden die Daten erhoben – den Forschungsprozess weiter verbessert. Im Übrigen seien die Auswirkungen auf die Teilnehmer nur marginal gewesen.

Facebook-Geschäftsführerin Sheryl Sandberg sagte, das Experiment sei "schlecht kommuniziert" worden, dafür entschuldige sich das Unternehmen.

Monika Bickert, Head of Global Policy Management (so etwas wie die Leiterin der Öffentlichkeitsarbeit) bei Facebook, sagte: "In Zukunft müssen wir transparent sein und sagen, was genau wir tun, sowohl gegenüber den Regulierungsbehörden als auch gegenüber den Nutzern."

Gab es noch mehr solcher heimlichen Experimente bei Facebook?

Ja. Laut Wall Street Journal hat das Data-Science-Team, bestehend aus etwa 30 bis 40 Wissenschaftlern, in den vergangenen Jahren viele solcher Versuche durchgeführt. Ein ehemaliges Mitglied der Gruppe sagte der Zeitung, es gebe praktisch keine Aufsicht. Er habe sogar mal ein Experiment zusammen mit einem Produktmanager durchgeführt, ohne dass irgend jemand sonst bei Facebook davon wusste. "Sie vesuchen ständig, das Verhalten der Nutzer zu verändern", sagte er außerdem. Laut Wall Street Journal gehe es bei den meisten Versuchen aber nicht um die Manipulation von Gefühlen, sondern um harmlosere Dinge. Vor allem wolle das Team herausfinden, wie Nutzer dazu animiert werden können, mehr Zeit im Netzwerk zu verbringen.

Facebook gab an, seit etwa einem Jahr werde jedes größere Experiment von Experten überprüft, die aus einem Pool von 50 internen Experten für Privatsphäre oder Datenschutz ausgewählt werden. Wer zu diesem Pool gehört, wollte das Unternehmen nicht verraten. Studien, die in Fachzeitschriften veröffentlicht werden sollen, würden zudem von internen "Experten für wissenschaftliche Forschung" geprüft. Man ziehe nun weitere Änderungen in Betracht.