Bereits 200 Wikis weltweit setzen die Software ein – die Wikipedia jedoch gehört noch nicht dazu. Aus gutem Grund: Alleine die Anpassung an die riesigen Datenmengen bräuchte aufwändige Tests.

Vor fünf Jahren ging so etwas noch in einer Hauruck-Aktion. So trafen sich im Januar 2005 in Berlin zwei Dutzend Wikipedia-Enthusiasten, um 15.000 Namensartikel in der deutschsprachigen Wikipedia mit Grunddaten wie Name, Vorname und Geburtsdatum zu versehen. In der Folge war es zum Beispiel möglich, die Wikipedia-Artikel mit der Personennamensdatei der Deutschen Nationalbibliothek in Leipzig zu verknüpfen und automatisiert Literaturlisten abzurufen.

So einfach geht das heute nicht mehr. Allein die deutschsprachige Wikipedia ist sechs Mal so groß wie vor fünf Jahren, auch die anderen Sprachversionen sind stark gewachsen. Zudem müssen sich die Wikipedia-Autoren zunächst auf eine Struktur verständigen, welche Fakten und Beziehungen überhaupt maschinenlesbar erfasst werden sollen.

"Sprache ist sehr wandlungsfähig. So finden sich in Wikipedia drei verschiedene Werte zur Fläche von Frankreich – je nachdem welche Gebiete man mitzählt", sagt Denny Vrandecic. Was in natürlicher Sprache einfach auszudrücken ist, sorgt bei der logischen Verknüpfung von Fakten für Probleme: Jede mögliche Beziehung zwischen zwei Begriffen muss vorhergesehen werden, sonst versagt das System.

Profitieren von der Automatisierung könnten vor allem die kleinen Wikipedia-Ausgaben. "Zwar kann Semantic MediaWiki keine Texte schreiben, mit den Fakten aus den anderen Wikipedia-Ausgaben hätte man aber ein Skelett, auf dem man aufbauen könnte", sagt Vrandecic.

Ein weiterer Grund, warum die maschinenlesbare Wikipedia nicht so zügig voranschreitet: Viele Wikipedianer halten am Status quo fest. Eine der Fragen, die Vrandecic häufiger hört, lautet: "Wenn es so einfach ist, zentrale Fakten zu ändern – wie verhindert man, dass mehr Unsinn in die Wikipedia gelangt?"

Denn die Langsamkeit des Wikipedia-Prozesses ist auch eine Art Qualitätsgarant. Nur wer sich wirklich gut mit dem System auskennt, kann Informationen dauerhaft einbringen. Offensichtliche Falschinformationen werden von den freiwilligen Helfern schnell aussortiert und gelöscht. An den etablierten Prozessen etwas zu ändern fällt der Gemeinschaft schwer. Schließlich gibt es keinen Chef, der den Wandel von oben befehlen könnte.