Angesichts von Exzellenzinitiativen und dem neuerdings grassierenden Evaluations-Fieber in der Wissenschaft kommt dem sogenannten „citation index“ eine fast religiöse Funktion zu. Er bestimmt über Wohl und Wehe eines Forschers, über Erfolg, Ansehen und künftige Forschungsgelder. Leider ist diese Maßzahl, die angibt, wie häufig eine wissenschaftliche Arbeit von anderen Publikationen zitiert wird, nicht wirklich aussagekräftig. Larry Page, Mitbegründer von Google, hat das PageRanking ursprünglich für seine Suchmaschine entwickelt.

Beispielsweise lässt sich anhand des „citation index“ nicht erkennen, wie bedeutungsschwer eine Arbeit tatsächlich ist. Umstürzende Erkenntnisse brauchen oftmals lange, um sich durchzusetzen. In der Anfangsphase werden sie möglicherweise sehr viel weniger zitiert als andere, nebensächliche Publikationen. Auch lässt sich anhand der Zitierhäufigkeit nicht unterscheiden, ob eine Arbeit nur aus Höflichkeit erwähnt wird oder weil sie grundlegend neue Resultate brachte.

Um aussagekräftigere Kriterien zu erhalten, wollen Forscher sich von Google inspirieren lassen . Denn ähnlich wie die Wissenschaftsstatistiker stehen auch die Suchmaschinen-Betreiber vor dem Problem, die wahre Bedeutung von Publikationen - respektive Webseiten - abschätzen zu müssen. Was im normalen Forschungsbetrieb die Zitate, sind im Internet die Links, die zu einer bestimmten Seite führen. Und ähnlich wie in der Wissenschaft, lässt sich auch im Netz die Zahl dieser Verweise künstlich in die Höhe treiben – durch eine Vielzahl nutzloser Seiten, deren Sinn einzig und allein im Verlinken zu anderen Seiten besteht. Um dieser Bedeutungs-Inflation Herr zu werden, hat Google im Laufe der Jahre ein ganzes Arsenal von Methoden entwickelt, um den echten „impact“, das Gewicht einer Webseite abschätzen zu können.

Eine dieser Methoden ist der „Google PageRank“ (GPR)-Algorithmus. Vier amerikanische Physiker schlagen nun vor, dieses Rechenverfahren auch für wissenschaftliche Publikationen zu nutzen . Sie wollen auch in der Wissenschaft für klarere Kriterien sorgen.

Die Grundidee des GPR-Algorithmus besteht darin, dass eine Seite um so bedeutender ist, je häufiger andere Seiten auf sie verweisen. Das Gewicht einer Verlinkung hängt zusätzlich allerdings von der Bedeutung der verlinkenden Seiten ab, das heißt: Will man die Bedeutung einer Webseite ermitteln, muss man zunächst die Bedeutung der anderen, darauf verweisenden Seiten kennen. Klingt unsinnig, lässt sich mit rekursiven mathematischen Verfahren aber tatsächlich leicht lösen.

Am Anfang erhalten alle Webseiten einen Standard-GPR von eins. Im ersten Rechenschritt wird dieser Wert mit 0,85 multipliziert und das Ergebnis vom Ursprungswert abgezogen. Es bleiben also immer 15 Prozent des GPRs übrig, hier 0,15. Nun sucht die Maschine für die Webseite, nennen wir sie A, sämtliche Seiten, die auf A verlinken. Dann werden die GPRs dieser Seiten jeweils durch die Zahl der dort ausgehenden Links geteilt und zum GPR von A addiert.