In der deutschen Wissenschaft hat das Reinemachen begonnen.Nach dem Fälschungsskandal um den Krebsforscher Friedhelm Herrmann (siehe ZEIT Nr. 25/1997) hat der Senat der Deutschen Forschungsgemeinschaft (DFG) zwei Kommissionen eingesetzt.Die eine versucht, den konkreten Fälschungsfall zu durchleuchten die andere will bis Ende des Jahres einen Kodex für die Selbstkontrolle in der Forschung zusammenstellen. Aus der Wissenschaft tönt es unterdessen: Zum Fälschen oder Abkupfern von Daten komme es nur selten.Dies ist freilich eine Hypothese, die keineswegs durch empirische Nachprüfung gesichert ist.Unbestritten ist nur, daß krasse Fälle forscherischen Fehlverhaltens kaum publik werden. Vorsätzlicher Betrug ist noch nicht einmal die einzige Schmutzwäsche, die in der Wissenschaft anfällt.Dazu kommen etliche Ladungen mehr oder minder unsauberer Verhaltensweisen."Kleine Schweinereien" nennt sie Peter Krammer vom Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg.Mal glätten Wissenschaftler eine Kurve, mal verzichten sie auf Kontrollen, oder sie lassen eine nicht ins Bild passende Versuchsreihe als sogenannten Ausreißer unberücksichtigt. Fehler können jedem unterlaufen.Shit happens, so lautet die rüde Fassung eines Naturgesetzes, das auch im Labor gilt.Doch zwischen Fehler und Fälschung gibt es eine Übergangszone, und wie viele publizierte Arbeiten sich darin bewegen, vermag niemand zu sagen. Eine Disziplin immerhin bemüht sich von Amts wegen um Klärung: Statistiker und Biometriker gehen seit vielen Jahren der Frage nach, wie robust die veröffentlichten Daten klinischer Studien und die darauf basierenden Schlußfolgerungen sind.Ihr Urteil verheißt nichts Gutes: "Ein strenger Statistiker wird sagen, es gibt einen Anteil von rund zwanzig Prozent an Arbeiten, die man akzeptieren kann", meint Hans-Konrad Selbmann vom Institut für medizinische Informationsverarbeitung an der Universität Tü bingen.Für die Qualitätssicherung existieren internationale Standards: Wer heute eine klinische Studie anstellt, um für ein neues Medikament eine Zulassung zu erhalten, braucht seinen Datenwust gar nicht erst zur Zulassungsbehörde zu karren, wenn die se Studie nicht den sogenannten ICH-Richtlinien entspricht. In diesen Richtlinien ist jeder noch so kleine Schritt festgeschrieben, von der Studienplanung über die Ausführung, Dokumentation und Auswertung bis hin zur externen Überprüfung.Diese Regeln sollen dazu beitragen, daß klinische Experimente sorgfältig ausgeführt werden und die daran beteiligten Ärzte und Forscher sauber bleiben. Ein heikler Punkt ist indes die Autorenzeile der Publikationen.Für Harald zur Hausen, Leiter des DKFZ, ist es eine "merkwürdige Tradition nicht nur, aber gerade in Deutschland", daß sich mancher Chef grundsätzlich in jeder Publikation seines Teams als Autor nennen läßt, selbst wenn er keinerlei gedanklichen, planerischen oder praktischen Anteil daran hat.Zur Hausen fordert nicht nur, daß Mitautorenschaft zwingend mit einem eigenen aktiven Anteil verknüpft ist, sondern auch, daß jeder Mitauto r alle Ergebnisse und Schlußfolgerungen "persönlich mitvertreten kann".Sein Kollege Peter Krammer wird noch deutlicher: "Wenn jemand auf einer Publikation draufsteht und dann, wenn die Sache auffliegt, sagt, er habe das alles nicht gewußt, dann ist das ein Skandal." Manche Fachzeitschriften fordern zwar die Mitverantwortung aller Autoren in ihren Publikationsrichtlinien jeder Autor muß das unterschreiben.Aber warum machen das nicht alle Zeitschriften?Warum hat es die deutsche Wissenschaft all die Jahre nicht geschafft, sich von ihrer "merkwürdigen Tradition" zu lösen?Warum feixen junge Wissenschaftler immer noch, daß sie schon froh wären, wenn ihre Chefs die Arbeiten wenigstens referieren könnten, für die sie als Koautoren zeichnen? Der Grund für diesen Mißstand ist eine Fehlentwicklung des Wissenschaftsbetriebs: Leistung wird nach Quantität beurteilt, und zwar anhand der Zahl publizierter Arbeiten und des sogenannten Impact-Faktors.Das ist ein Wert, der beispielsweise die Qualität der jeweiligen Fachzeitschrift ausdrücken soll.Je angesehener das Organ, desto höher der Impact-Faktor.Wie geeignet die akademische Rangliste ist, mag der Fall Herrmann zeigen: Innerhalb seines Fachgebietes der Hämatologie belegt der Ul mer Forscher mit 398 Publikationen und dem höchsten Impact-Faktor den ersten Platz. Harald zur Hausen erscheint es suspekt, wenn ein einziger Wissenschaftler bis zu sechzig Arbeiten pro Jahr mitverfaßt: "Es gibt zwar Ausnahmen, aber in der Regel kann in diesen Fällen gar nicht genügend persönlicher Input vorliegen." Da ist also meistens etwas faul.Statt dessen, fordert Peter Krammer, sollten Wissenschaftler bei Bewerbungen und Evaluationen nur ihre fünf besten Arbeiten benennen.Unter der gegenwärtigen Maxime publish or perish - publizieren oder untergehen - leiden alle im Forschungsbetrieb.Sie gebiert die zynische Maßeinheit LPU: least publishable unit, die kleinste publizierbare Einheit. Aus Platzmangel mahnen die Journale überdies zu komprimierter Darstellung. Gutachter empfehlen den Autoren und Redakteuren, mitgelieferte Dokumentationen nicht zu veröffentlichen.In einer idealen Wissenschaftswelt, in der es von mundgerechter Präsentation bis zur Täuschung gleitende Übergänge gibt, kann das fatal sein.Dabei böte das Internet die Möglichkeit, das Dokumentationsmaterial einer Arbeit - bis hin zu den Rohdaten - zugänglich zu machen.Manche Journale verpflichten ihre Autoren bereits heute dazu, manche Autoren weisen von sich aus in der Publikation darauf hi n.Warum nicht alle? Das Internet bietet noch eine weitere Chance: die der Kommunikation. Wissenschaftler könnten ihre Kommentare in Foren publizieren, die nach Themengebieten gegliedert werden oder auch dort Arbeiten hinterlegen, in denen sie über bestätigende, abweichende oder gar widersprechende Ergebnisse aus dem eigenen Labor berichten.Solche Foren könnten einen weiteren Nutzen stiften: daß wichtige Arbeiten rascher als bisher repliziert werden.Die Kenntnis aller Details, unter denen ein Ergebnis zustande kam, ist für jeden unabdingbar, der es replizieren möchte. "Leider gibt es zuwenig Anreize für Forscher, eine Studie zu wiederholen", sagt der Biometriker Hans-Konrad Selbmann.Forscher hätten es schwer, Fördermittel für Replikationen zu erhalten.Ein "Rebellenfonds" für Antragsteller, die erhebliche und begründete Zweifel an der Richtigkeit publizierter Arbeiten haben, könnte hier weiterhelfen.Daß ein solcher Fonds kein Sammelbecken für phantasielose Nachahmer sein würde, dafür sorgt der Wissenschaftsprozeß selbst: Replikationen dürfen nie bloß es Nachkochen sein, sondern müssen besser, stringenter und umfassender sein.Und sie sollten das ursprüngliche Ergebnis möglichst gar mit anderen Methoden prüfen, um es zu stützen oder in Zweifel zu ziehen. Das gegenwärtige Beurteilungssystem versagt einem Forscher, dem dies gelingt, die Würdigung.Das Prioritätsprinzip führt dazu, daß nur der erste hoffen kann, seine Arbeit in erstklassigen Journalen unterzubringen.Wer später kommt, stößt bestenfalls bei zweit- und drittrangigen Zeitschriften auf Interesse.Dabei lebt die Qualität der Wissenschaft nicht davon, Unikate zu erzeugen, sondern Ergebnisse, die mehr als nur einmal gelten.