Jetzt ist sie raus. Die Zahl, vor der sich viele Sozialpsychologen gefürchtet haben: 61. So viele Studien aus hochrangigen Fachmagazinen haben die wissenschaftliche Feuerprobe nicht bestanden – ihre Ergebnisse haben sich in Wiederholungsversuchen nicht bestätigen ("reproduzieren") lassen. Insgesamt 100 Forschungsarbeiten waren im Rahmen des Reproducibility Project überprüft worden.

Drei von fünf der kontrollierten Erkenntnisse sind also womöglich gar keine. Das scheint den Verdacht zu bestätigen, dass in der Sozialpsychologie schlampig geforscht, womöglich auch geschummelt wird. Die Glaubwürdigkeit des Fachs ist bereits durch mehrere prominente Fälschungsskandale erschüttert, erst Ende April verzichtete der Sozialpsychologe Jens Förster auf die hoch dotierte Humboldt-Professur; ihm wird vorgeworfen, Daten manipuliert zu haben (ZEIT Nr. 17/15).

Ganz so eindeutig, wie es aussieht, ist das Resultat jedoch nicht: In 24 Fällen erfüllten die Ergebnisse zwar nicht die zuvor festgelegten Kriterien – waren aber denen der Originalstudien ähnlich. Manchmal verfehlten sie allein das geforderte Niveau statistischer Signifikanz. Dieses Maß (p-Wert) soll die Unsicherheit von Forschungsergebnissen beziffern. Allerdings wird gerade heftig darüber gestritten, wie aussagekräftig es überhaupt ist. Das Fachmagazin Basic and Applied Social Psychology hat den p-Wert kürzlich sogar verbannt.

Zudem bedeutet "nicht reproduziert" keineswegs automatisch "falsch", "gefälscht" oder "gepfuscht". Die Sozialpsychologie erforscht menschliches Verhalten unter möglichst realitätsnahen Bedingungen. Experimentelle Ergebnisse hängen da oft von vielen Faktoren ab, was ihre Wiederholung erschwert. Das Forschungsobjekt ist komplex und zugleich schwammig – eine heikle Kombination.

Doch sieht es in vermeintlich härteren Fächern besser aus? Als der Pharmakonzern Bayer 2011 seine Laborleiter befragte, zeigte sich, dass bei 75 Prozent der Projekte die jeweils relevanten Ergebnisse nicht reproduziert werden konnten. Und als die Biotechfirma Amgen ein Jahr später mehr als 50 wichtige Krebsstudien wiederholte, bestätigten sich deren Resultate gar in 90 Prozent der Fälle nicht. In Disziplinen, von denen man eher präzise Resultate erwartet – und deren Anwendungen weit folgenreicher sein können als die der Sozialpsychologie –, sieht die Lage also noch verheerender aus. Es ist kein Zufall, dass sich das Reproducibility Project nun als Nächstes die Krebsforschung vornimmt.

Doch solch groß angelegte, mit Spendengeldern finanzierte Initiativen sind die Ausnahme. Und kaum ein Forscher kann als Einzelkämpfer die Arbeiten von Kollegen überprüfen. Dafür gibt es nämlich weder Forschungsgeld noch Renommee. Fachzeitschriften verschmähen reine Wiederholungsstudien, im Konkurrenzkampf um Professorenstellen bringen sie deshalb nichts.

Das muss sich ändern: Geldgeber wie die Deutsche Forschungsgemeinschaft müssen von vornherein Mittel für Replikationsversuche reservieren – und die Herausgeber der Fachmagazine Seiten für solche Ergebnisse bereitstellen. Sonst bleibt die Feuerprobe der Wissenschaft ein harmloses Flämmchen.