Seit Jahren werden Schüler ermahnt, Hausaufgaben nicht einfach abzuschreiben, schon gar nicht im Netz. Da sollten Lehrer eigentlich als gutes Beispiel vorangehen. Vor kurzem aber flog einer auf, dem jegliche Scham fehlte. Der Lektor eines Verlags, der bei dem Lehrer ein Buch für den Geschichtsunterricht bestellt hatte, wurde bei der Abnahme misstrauisch. Er alarmierte ein Unternehmen, das nach Textdieben fahndet. Das Ergebnis: 652 Treffer mit mehr als 100 Zeichen Länge, die eins zu eins aus dem Netz geklaut worden waren. Der Lehrer, der bequem Geld verdienen wollte, hatte ein Problem.

Möglich ist ein so systematischer Abgleich von Texten mit dem Internet erst seit wenigen Monaten. Inzwischen gibt es Software, die große Mengen Text verdauen kann. Erst verdichtet sie diesen auf Schlüsselwörter. Dann macht sich ein Such-Algorithmus an die Arbeit. Der erkennt Duplikate sogar, wenn der Originaltext bearbeitet wurde. So hilft Dieben nicht einmal eine neue Reihenfolge der Satzbausteine, um die Tat zu vertuschen.

Gleich mehrere Start-ups haben sich auf diese Form der Plagiat-Suche spezialisiert. Mit Software, die Texte in großem Tempo über diverse Suchmaschinen mit dem Internet abgleicht und dann die Treffer analysiert, wollen sie der Wild-West-Mentalität im Netz ein Ende setzen. Erste Großkunden nutzen sie bereits. Mit Folgen für die Diebe.

Das Hamburger Unternehmen Textguard, das den besagten Lehrer überführte, kann pro Stunde etwa 1000 Texte minutiös durchleuchten. Gründer Claus-Michael Gerigk ist sich jedoch sicher, dass trotzdem kaum ein Verlag seine bereits erschienenen Titel nach geklauten Stellen durchforsten wird: "Es will doch keiner wirklich wissen, wie viel von unserer Literatur tatsächlich geklaut ist."

Die Suche nach Büchern steht ohnehin noch am Anfang, sie lassen sich noch nicht großflächig mit anderen Büchern vergleichen. Anbieter wie Textguard, Attributor, Cognita und – in einfacher Form schon etwas länger – Copyscape haben es daher vor allem auf Material abgesehen, das im Netz kursiert. Kunden sind Nachrichtenagenturen wie die Associated Press (AP) und die Agence France-Presse (AFP), aber auch Zeitungsverlage. Der deutsche AFP-Ableger beispielsweise hat in diesem Jahr schon mehrere Hundert Abmahnungen verschickt, wie Geschäftsführer Andreas Krieger sagt. Sein Vertriebschef Timo Peters spricht von insgesamt "tausenden" Treffern, obwohl erst ein Teil der deutschsprachigen Meldungen abgeglichen sei.

Der größte hiesige AFP-Konkurrent, die Deutsche Presse-Agentur (dpa), nutzt den Textguard-Konkurrenten Attributor für die Suche nach solchen Dreistigkeiten. Mehrere Verlage wie die FAZ haben ebenfalls in entsprechende Software investiert, weil sie erkannt haben, dass Textdiebe sich inzwischen fangen lassen. Anders als noch vor wenigen Jahren sind die Urheber nicht mehr auf Zufallstreffer angewiesen. Für alle Beteiligten ist das systematische Suchen nach Plagiaten letztlich auch eine Einnahmequelle: Textguard bekommt etwa die Hälfte der gezahlten Nachforderungen, Attributor pro Treffer ein paar Euro.

Der auf Urheberrechtsverletzungen spezialisierte Karlsruher Anwalt Peter Nümann glaubt, dass die Wild-West-Mentalität im Netz oft gar kein Vorsatz ist, sondern schlicht am Unwissen der Leute liegt. "Vielen scheint noch immer die Rechtslage nicht ganz klar zu sein", sagte er. So komme es immer wieder vor, dass Leute sagen, sie hätten doch ordentlich zitiert. "Manch einer meint eben nach wie vor, es reicht, einen Link zur Quelle zu setzen", sagt Nümann, der zusammen mit Textguard nicht nur Großkunden sondern auch Selbstständige betreut.