Klonstudie"So offensichtliche Mängel hätten auffallen müssen"

In der Studie zu menschlichen Klonen haben Forscher Ergebnisse schlampig zusammengestellt. Enttäuschend, dass Gutachter das übersahen, sagt Forschungsexpertin T. Brown. von 

ZEIT ONLINE:Menschliches Leben kann geklont werden – diese Nachricht ging in der vergangenen Woche als Sensation durch die Medien. Jetzt besteht der Verdacht, dass die Studie Fehler, schlimmstenfalls Fälschungen enthält. Werden Studien vor der Veröffentlichung nicht kontrolliert?

Tracey Brown: Doch, natürlich. Bei großen Fachzeitschriften gibt es das Peer-Review-Verfahren. Wenn eine Forschergruppe ihre Ergebnisse bei einer Zeitschrift einreicht, lassen die Redakteure sie in der Regel von drei oder vier Fachleuten begutachten. Das sind meist Wissenschaftler, die im gleichen Fachbereich forschen wie die Autoren der Studie. Die Aufgabe der Peers ist es allerdings nicht, in den Studien nach Betrug und Fälschung zu suchen. Sie sollen lediglich bewerten, ob die darin beschriebenen Erkenntnisse tatsächlich neu und wichtig für das Fachgebiet sind.

Anzeige

ZEIT ONLINE: Es prüft also niemand, ob die Daten stimmen?

Brown: Die Forscher müssen ihre Methoden vollständig und verständlich darstellen, damit andere die Versuche reproduzieren können. Wenn also jemand seine Messergebnisse fälscht, fliegt das spätestens auf, wenn andere Wissenschaftler auf dem Gebiet weiterforschen und dafür die Messungen wiederholen wollen.

ZEIT ONLINE: Sollten die Gutachter das nicht schon vor der Veröffentlichung machen?

Brown: Wie soll das gehen? Die Gutachter sind meistens selbst sehr erfolgreiche und gute Forscher, die mit ihrer eigenen Arbeit ausgelastet sind. Sie können nicht nebenbei Versuche anderer Forscher nachmachen, um zu prüfen, ob sie zu den gleichen Ergebnissen kommen. Auch Laborbegehungen oder eine Überprüfung der Messgeräte wären viel zu aufwendig. Schließlich arbeiten die Gutachter nicht immer im gleichen Land wie die Studienautoren.

Tracey Brown
Tracey Brown

Tracey Brown ist Direktorin der britischen Stiftung "Sense About Science". Diese setzt sich dafür ein, dass die Öffentlichkeit besser über Vorgänge in der Wissenschaft informiert wird.

ZEIT ONLINE: So viel Aufwand muss vielleicht gar nicht sein. Bei der Klonstudie hätten die Gutachter nur genauer hinschauen müssen: Abbildungen wurden mehrfach verwendet.

Brown: Das ist einer der häufigsten Fehler in Fachartikeln. Und meist ist es gar keine böse Absicht. Die Forscher wollten vielleicht bestimmte Ausschnitte eines Bildes hervorheben, damit der Leser es besser sehen kann. Deshalb haben sie es noch einmal vergrößert gezeigt. Das ist noch harmlos. Manchmal bearbeiten Forscher Abbildungen sogar mit Computerprogrammen, um Details besser erkennbar zu machen. Sie wissen nicht, dass das gegen wissenschaftliche Prinzipien verstößt. Deshalb haben viele Magazine inzwischen ihre Regeln zu Bildern in Fachartikeln verschärft. Allerdings finde ich es auch enttäuschend, dass die Gutachter die Fehler in diesem Fall übersehen haben. So offensichtliche Mängel hätten ihnen auffallen müssen. Es wäre ihre Pflicht gewesen, die Redakteure des Magazins Cell zu informieren. Gerade bei einer derart spektakulären Studie.

Leserkommentare
  1. Also bei den Artikeln, die ich bis jetzt zur Peer Review vorgelegt bekommen habe (theor. Physik) standen immer die Autoren mit drauf. Also nicht doppelblind.
    Ich denke --und propagiere auch schon länger--, dass im Falle der Veröffentlichung mit auf der Publikation steht, wer die Gutachterinnen waren und evtl. sogar wie sie entschieden haben. Im Zeitdruck der täglichen Arbeit ist die Peer Review ein unbezahlter Job, der kein Renommée einbringt und daher oft nicht besonders sorgfältig erledigt wird. Durch so eine Maßnahme könnte erreicht werden, dass mehr Anreiz besteht die Review strenger anzugehen um nicht derjenige zu sein, der ein schlampiges Paper durchgewunken hat.

    3 Leserempfehlungen
  2. Mit dem Peer-Reviewing-Prozess halte ich es wie Churchill mit der Demokratie: "Die Demokratie ist nicht die beste Staatsform, aber die beste, die wir haben."

    In der Informatik (Graphentheorie) kenne ich ebenfalls kein Doppelblind-Verfahren: Die Autoren stehen auf den Papern immer drauf. Umgekehrt kann man die Gutachter oft nur erahnen.

    @Thomasillo: Die Namen der Gutachter auf die Reviews zu schreiben ist eine interessante Idee. Zumindest würden sich dann die Reviewer etwas mehr Mühe geben und/oder mit harscher Kritik zurückhaltend sein. Denn die Qualität der Reviews lässt leider teilweise ziemlich zu wünschen übrig.
    Andererseits befürchte ich, dass die Mitteilung der Gutachternamen auch zu einem "Ich tue Dir nichts, Du tust mir nichts" führen könnte. Denn in der Anonymität (siehe Internet) tut man sich eben leichter seine ehrliche Meinung kundzutun.

    Meine Idee wären Reviews der Reviews in Form von kurzen Feedbacks/Wertungen, wie "Wie hilfreich war das Review?", "Wie sachlich war es?", "Waren die Kritikpunkte gerechtfertigt?", "Passt das Score zu dem Kommentar?" (habe ich auch schon erlebt, dass das nicht zusammenpasst).

    Diese Reviews gäben den Gutachtern und dem Programm-Kommitee Feedback. Nicht zuletzt bedeuten IMHO gute Reviews auch hohe Qualitätsstandards bei der Auswahl der Paper und vielleicht sogar der Paper selbst.

    Ach ja: Und statt eines "Best Paper Awards" gibt es einen "Best Review Award"! :)

    3 Leserempfehlungen
    Reaktionen auf diesen Kommentar anzeigen

    Ihre bedenken Teile ich nicht, denn man braucht die Namen der Gutachter doch nur veröffentlichen wenn die Unbedenklichkeit des Paper geprüft wurde.

    Wenn Mängel festgestellt werden, gibt es ja auch keine Veröffentlichung.

  3. Ihre bedenken Teile ich nicht, denn man braucht die Namen der Gutachter doch nur veröffentlichen wenn die Unbedenklichkeit des Paper geprüft wurde.

    Wenn Mängel festgestellt werden, gibt es ja auch keine Veröffentlichung.

  4. Meiner Meinung nach pruefen alle Gutachter einer Studie, sofern sie qualifiziert sind und ausreichend Zeit haben, auf Plausibilitaet der beschriebenen Ergebnisse. Somit lasse ich das Argument von Ms Brown nicht gelten, dass Ergebnisse nicht ueberpruefbar waeren. Es ist nur leider sehr muehselig und zeitaufwendig, als Gutachter derart tief in die Methodik und Ergebnisse der Studie einzusteigen, sodass man pro Studie 4-8 Stunden Zeitaufwand realistisch einplanen sollte.
    Wie in jedem wissenschaftlichen Feld gibt es ein paar grosse Namen im Stammzellgebiet, die bevorzugt solche high impact Studien zur Pruefung bekommen. Diese Leute haben meist bereits eine 80 h Woche und somit ergeben sich 2 Moeglichkeiten: 1) sie begutachten selbst innerhalb sehr kurzer Zeit ohne genau hinzuschauen, oder 2) sie leiten die Arbeit an einen geeigneten Wissenschaftler in ihrer Gruppe weiter, der diese Arbeit fuer sie erledigt. Aus Zeit-, Einfachheits- sowie Prestigegruenden wuerde ich annehmen, viele waehlen Option 1), was die Resultate des oftmals schlechten peer-reviews erklaeren lasst.

    @HighOnBonsai: Ich finde Ihren Vorschlag gut, die Qualitaet der Gutachterkommentare separat zu bewerten. Im Endeffekt muesste es dann auch heissen, dass jemand, der mehrmals unangemessene Kommentare abgibt, als Gutachter von der Zeitschrift gesperrt wird.

    Reaktionen auf diesen Kommentar anzeigen
    • tobmat
    • 24. Mai 2013 12:57 Uhr

    "Meiner Meinung nach pruefen alle Gutachter einer Studie, sofern sie qualifiziert sind und ausreichend Zeit haben, auf Plausibilitaet der beschriebenen Ergebnisse. Somit lasse ich das Argument von Ms Brown nicht gelten, dass Ergebnisse nicht ueberpruefbar waeren."

    Es ist ein elementarer Unterschied, ob ich die Plausibilität von Ergebnissen überprüfe oder die Ergebnisse selbst überprüfe. Falsche Ergebnisse sind nicht automatisch auch unplausibel. Ms Browns Aussage ist korrekt.

    "Es ist nur leider sehr muehselig und zeitaufwendig, als Gutachter derart tief in die Methodik und Ergebnisse der Studie einzusteigen, sodass man pro Studie 4-8 Stunden Zeitaufwand realistisch einplanen sollte."
    Im vorliegenden Fall hatten die Gutachter 4 Tage.

    Der Vorschlag, die Kommentatoren von anderen Kommentatoren prüfen zu lassen, scheint prima vista vernünftig, aber wohin sollte das führen? Müßten die Kontrollkommentatoren denn nicht auch geprüft werden, diese ebenfalls und so weiter? Da die Zahl kompetenter Reviewer sehr sehr endlich ist, würde der zu erwartende infinite Regreß sehr rasch in einem Circulus vitiosus enden, und bei einer, in der Praxis natürlich völlig abwegigen Doppelblindheit, würde es dann nicht lange dauern, bis man sich selber reviewt, und genau das geschieht ja bereits, denn das peer reviewing ist im allgemeinen nur Augenwischerei, man könnte auch von Systemkosmetik sprechen.

  5. Täuscht es, oder ist das in der Petrischale nicht eher Pflanzenmaterial? Erinnert sehr an die Toasteranleitung als Photo für Hackerartikel....

    Eine Leserempfehlung
    Reaktionen auf diesen Kommentar anzeigen
    • msknow
    • 24. Mai 2013 5:59 Uhr

    Das ist genau der Grund, dass ich in einem Kommentar zu dem Thema darum gebeten habe, dass wir durch die Zeit(ung) aufgeklärt werden, was bei diesem Klonen eigentlich passiert.
    Die Welt hat sich weiter gedreht - es hat sich einiges getan seit Mendel. Und je mehr wir wissen über Genetik, desto mehr wird klar, dass hier ein ganz feines Regelsystem vor uns liegt. Die Komplexität ist allerdings so groß, dass wir noch ganz weit weg sind, von einem finalen Verständnis. Selbst wenn, ist dann noch lange nicht gesagt, dass wir auch die manipulativen Techniken entwickeln können.
    Wenn man die Relativitätstheorie verstanden hat, weiß man, dass eine Maschine, mit der man durch die Zeit reisen kann, eine Ente sein muss. Und dann schaut man zuerst, ob nicht zufällig der 1. April ist und rennt nicht gleich los und schreibt Sonderausgaben.

    Fazit: In den nächsten 20, eher 30 Jahren wird sich jede Meldung zum Menschenklonen als gescheiterter Versuch entpuppen.
    Und moralisch sollte man sich lieber um die hilfsbedürftige Nachbarin kümmern, als sich darüber aufzuregen, dass omnipotente Stammzellen zu Experimenten verwendet werden.
    Wenn man keine Ahnung hat...

  6. Eine Publikation ist nicht die Verkündung von Wahrheiten, sondern wortwörtlich eine "Veröffentlichung".
    Das peer-review Verfahren soll im idealen Fall gröbste Fehler aufdecken, aber die Wissenschaft funktioniert nun mal so, dass Ergebnisse nach Veröffentlichung von wissenschaftlichen Kollegen bewertet werden. Durch Prüfung, Wiederholung und Zitieren.
    Daher kann eine Publikation mit revolutionären Ergebnissen nie eine Sensation sein, sondern höchstens die Möglichkeit einer Sensation: Wenn die Ergebnisse bestätigt werden.
    Wenn das die Medien und die Öffentlichkeit verstehen würden, wäre schon viel gewonnen.
    P.S: Für verschiedene Abbildungen die gleichen Originalbilder zu verwenden, kann 2 Dinge bedeuten: a) gröbste Schlamperei oder b) dummdreister Versuch der Täuschung (_muss_ auffliegen). Beides für eine Zeitschrift vom Format von Cell durchaus peinlich.

  7. Ich will noch was zu meinem Vorschlag ergänzen: Es stellt sich natürlich noch die Frage _wer_ diese Bewertung vornimmt. Prinzipiell gibt es zwei Möglichkeiten: Die Autoren des Papers oder aber Mitglieder des Programmkomitees. Letzteres ist eher unrealistisch, da diese ohnehin die zeitaufwändige und undankbare Aufgabe haben das eigentliche Review zur Arbeit zu schreiben. Leute außerhalb des Programmkomitees für diese Aufgabe zu gewinnen halte ich für unrealistisch, da es schon schwierig ist genug Reviewer (mindestens zwei/drei pro Paper) für das eigentliche Gutachten zu finden.

    So bleiben nur die Autoren und hier besteht die Gefahr, dass bei einer Ablehnung Rachegelüste dazu führen, den Reviewern eins rein zu würgen. Aber es geht ja darum, die schwarzen Schafe im Programmkomitee auffliegen zu lassen und bei vielen schlechten Bewertungen der Reviews schaut der Programchair vielleicht doch mal genauer hin.

    Ach ja, ein Problem löst mein Vorschlag nicht: Pseudoeinreichungen (zusammenkopiertes Material/Plagiate usw.) oder schlechte Paper bekommen gute Reviews bekommen aufgrund von Zeitmangel oder mangelnder Motivation. Die Autoren würden hier den Teufel tun und die Reviewer auffliegen lassen.

  8. Eine "leitende Täuschungsabsicht" gibt es bei Gutachtern ja zum Glück nicht. Was für ein Segen. ;)

Bitte melden Sie sich an, um zu kommentieren

  • Artikel Auf einer Seite lesen
  • Quelle ZEIT ONLINE
  • Schlagworte Betrug | Fälschung | Studie
Service