Zum Thema Leistungsschutzrecht ist schon alles gesagt worden und auch schon von jedem. Die Fronten sind so verhärtet, dass jetzt Zeit ist, ein weißes Blatt Papier zu nehmen und nach einer neuen Lösung zu suchen.

Anstatt Regeln nur auf Suchmaschinen und ähnliche Dienste zu beschränken, schlage ich vor, alle Menschen einzubeziehen, die Inhalte im Internet bereitstellen. Aber nicht in Form von Verboten und Abgaben, sondern in Form eines Rechts. Alle, die Kreativleistungen erbringen, sollen das Recht erhalten, die Verbreitung ihrer Inhalte steuern und regeln zu können. Angesichts der besonderen Anforderungen des digitalen Zeitalters braucht es neue, daran angepasste Normen.

Ich fordere insbesondere, dass verlegerische Konzepte nur nach der Zustimmung der Verleger durch maschinelle Erfassung ausgebeutet werden dürfen. Das bedeutet, wenn jemand wünscht, dass die eigenen Inhalte im Internet nicht gefunden werden sollen, sollte dieser Wunsch auch rechtlich geschützt sein.

Auch jetzt schon kann es unterbunden werden, dass Nachrichtenaggregatoren beziehungsweise Suchmaschinen ein Werk im Internet finden, doch ist dieses Verbot bislang nur unverbindlich. Zwar kann ein Webseitenanbieter technisch, durch die sogenannte robots.txt, den Suchmaschinenbetreiber darauf hinweisen, dass er nicht gefunden werden möchte. Diese standardisierte Datei, die jeder Webseitenanbieter für die eigene Seite bereitstellen kann, wird von den Suchalgorithmen der Suchmaschinen erkannt und verarbeitet. In ihr sind Regeln definiert, wie die Seite durchsucht werden darf und was ignoriert werden soll. Die robots.txt dient damit als Wegweiser und Türsteher, mit der die zugänglichen Bereiche seitengenau definiert werden können.

Das ist aber nur eine Empfehlung, die der jeweilige Webseitenanbieter abgibt und die momentan rechtlich nicht durchgesetzt werden kann. Bislang war es ein Gentleman's Agreement, dass sich beispielsweise Google an diese vom Webseitenbetreiber vorgegebenen Empfehlungen hält.

Rechtsverbindliche robots.txt

Ich möchte gerne diese Schutzlücke beheben, indem wir diese etablierten Vorgaben rechtsverbindlich machen. Webseitenbetreiber können so auf ihren Angeboten klare Regelungen treffen, welche Inhalte von welchen Diensten maschinell erfasst werden dürfen. Verstößen sollen sie mit einem Unterlassungsanspruch begegnen können. Insbesondere Presseverlage können auf diesem Wege online den Schutz ihrer Werke gegenüber den Newsaggregatoren durchsetzen, indem sie ihre Produkte oder Teile der Produkte dem Zugriff der Aggregatoren beziehungsweise Suchmaschinen entziehen.

Man könnte diese Idee noch ergänzen. Die im Textteil einer Webseite bereitgestellten Informationen könnten anders bewertet werden als die Informationen, die sich im sogenannten Head, also auf dem Umschlag einer Webseite befinden. Die dort extra zur Verwendung von Suchmaschinen bereitgestellten Inhalte wären damit für alle frei nutzbar, die Website selbst, der sogenannte Body, bliebe geschützt.