Leistungsschutzrecht : Der Code ist das Gesetz

Verlage sollen ihre Leistung schützen, schreibt der FDP-Abgeordnete Jimmy Schulz. Doch er will dazu das Vorhandene nutzen: die robots.txt. Sie soll verbindlich werden.

Zum Thema Leistungsschutzrecht ist schon alles gesagt worden und auch schon von jedem. Die Fronten sind so verhärtet, dass jetzt Zeit ist, ein weißes Blatt Papier zu nehmen und nach einer neuen Lösung zu suchen.

Anstatt Regeln nur auf Suchmaschinen und ähnliche Dienste zu beschränken, schlage ich vor, alle Menschen einzubeziehen, die Inhalte im Internet bereitstellen. Aber nicht in Form von Verboten und Abgaben, sondern in Form eines Rechts. Alle, die Kreativleistungen erbringen, sollen das Recht erhalten, die Verbreitung ihrer Inhalte steuern und regeln zu können. Angesichts der besonderen Anforderungen des digitalen Zeitalters braucht es neue, daran angepasste Normen.

Ich fordere insbesondere, dass verlegerische Konzepte nur nach der Zustimmung der Verleger durch maschinelle Erfassung ausgebeutet werden dürfen. Das bedeutet, wenn jemand wünscht, dass die eigenen Inhalte im Internet nicht gefunden werden sollen, sollte dieser Wunsch auch rechtlich geschützt sein.

Jimmy Schulz

Jimmy Schulz ist Mitglied des Deutschen Bundestages und Obmann der FDP in der Enquete-Kommission "Internet und digitale Gesellschaft" und Mitglied im Unterausschuss Neue Medien. In beiden Gremien werden Themen wie Urheberrecht und digitaler Wandel debattiert. Vor seiner politischen Laufbahn gründete er ein IT-Dienstleistungsunternehmen.

Auch jetzt schon kann es unterbunden werden, dass Nachrichtenaggregatoren beziehungsweise Suchmaschinen ein Werk im Internet finden, doch ist dieses Verbot bislang nur unverbindlich. Zwar kann ein Webseitenanbieter technisch, durch die sogenannte robots.txt, den Suchmaschinenbetreiber darauf hinweisen, dass er nicht gefunden werden möchte. Diese standardisierte Datei, die jeder Webseitenanbieter für die eigene Seite bereitstellen kann, wird von den Suchalgorithmen der Suchmaschinen erkannt und verarbeitet. In ihr sind Regeln definiert, wie die Seite durchsucht werden darf und was ignoriert werden soll. Die robots.txt dient damit als Wegweiser und Türsteher, mit der die zugänglichen Bereiche seitengenau definiert werden können.

Das ist aber nur eine Empfehlung, die der jeweilige Webseitenanbieter abgibt und die momentan rechtlich nicht durchgesetzt werden kann. Bislang war es ein Gentleman's Agreement, dass sich beispielsweise Google an diese vom Webseitenbetreiber vorgegebenen Empfehlungen hält.

Rechtsverbindliche robots.txt

Ich möchte gerne diese Schutzlücke beheben, indem wir diese etablierten Vorgaben rechtsverbindlich machen. Webseitenbetreiber können so auf ihren Angeboten klare Regelungen treffen, welche Inhalte von welchen Diensten maschinell erfasst werden dürfen. Verstößen sollen sie mit einem Unterlassungsanspruch begegnen können. Insbesondere Presseverlage können auf diesem Wege online den Schutz ihrer Werke gegenüber den Newsaggregatoren durchsetzen, indem sie ihre Produkte oder Teile der Produkte dem Zugriff der Aggregatoren beziehungsweise Suchmaschinen entziehen.

Man könnte diese Idee noch ergänzen. Die im Textteil einer Webseite bereitgestellten Informationen könnten anders bewertet werden als die Informationen, die sich im sogenannten Head, also auf dem Umschlag einer Webseite befinden. Die dort extra zur Verwendung von Suchmaschinen bereitgestellten Inhalte wären damit für alle frei nutzbar, die Website selbst, der sogenannte Body, bliebe geschützt.

Verlagsangebot

Entdecken Sie mehr.

Lernen Sie DIE ZEIT 4 Wochen lang im Digital-Paket zum Probepreis kennen.

Hier testen

Kommentare

14 Kommentare Seite 1 von 3 Kommentieren

Alles gut und schön, aber auf diese...

...Möglichkeit wurde schon ganz zu Beginn des Nachdenkens über ein Leistungsschutzrecht hingewiesen und die Verlage haben durch ihre Forderungen klar gemacht: "Wir wollen gefunden werden UND wir wollen Geld dafür."

Insofern sehe ich den Sinn dieses Artikels nicht, es sei denn hier steht zwischen den Zeilen, dass man dann auch kein Leistungsschutzrecht der derzeit angestrebten Form braucht. Das ist aber für mich wenig erkennbar. So fällt der Artikel bei mir unter die Kategorie: 'Wow, ein MdB hat tatsächlich etwas, das mit Technik zu tun hat, verstanden und fordert jetzt, dass das seit langem unfallfrei praktizierte Recht zu gesetzlichem Recht wird.' Juchu!

Wer übrigens glaubt, dass die deutschen Verlage auch nur einen Cent von Google sehen, hat noch nie nach Belgien geschaut.

Ihre Antwort macht deutlich...

...wie einseitig das Leistungsschutzrecht gestrickt ist. Die Verlage haben damit schon jetzt die Möglichkeit, Google daran zu hindern, ihre Inhalte zu "verwerten".

Die Verlage wollen aber auch gefunden werden. Nun ja, da kann ich nur sagen: "Entschiedet Euch was ihr wollt." Google für sein Geschäftsmodell belangen zu wollen, weil man weder das Eine noch das Andere möchte, ist unsinnig. Genauso gut könnte man zu den Verlagen sagen: "Ich möchte Eure Zeitung lesen, aber nicht dafür bezahlen." Dazu ein "Leserecht" einzufordern wäre fast vergleichbar mit dem, was die Verlage wollen. Welcher Verlag würde sich darauf aber einlassen?

Ja, das Netz stellt uns alle vor große Herausforderungen. Aber lösen werden wir diese Herausforderungen nur gemeinsam, nicht gegeneinander. Dass das einfach ist hat nie jemand behauptet.

Die robot.txt-Datei für rechtlich verbindlich zu erklären fände ich o.k. So wird zumindest sichergestellt, dass der Wunsch des Einzelnen, seine "geistige Schöpfung" vor unliebsamen Zugriffen zu schützen, auch wirklich respektiert wird. Natürlich kann ich meine Seite z. B. auch per Passwort schützen, dass aber ist technisch gesehen schon wieder anspruchsvoller als das Erstellen einer robot.txt-Datei. Und ich finde es ist sinnvoll, die Hürden so niedrig wie möglich zu halten.

Schwarze Schafe, die die robot.txt-Datei umgehen, wird es natürlich immer geben. Aber das kann ja kein Argument dafür sein, das Recht des einzelnen Seitenbetreibers nicht zu stärken.

Ein Ansatz aber ein falscher!

Webseiten werden nur von Suchmaschinen gelistet, wenn sie gelesen werden kann. Das ist der springende Punkt!
Wenn dagegen die Verlage eine (Bezahl-)schranke einführen kann niemand außer ihr Kundenkreis darauf zugreifen. Problem gelöst.

Wenn ich meine Haustüre offen stehen lasse, muss ich mich nicht wundern, wenn ein paar Leute durchs Wohnzimmer laufen.
Deshalb sollte man seine Tür/Webseite abschließen, wenn man nicht will, dass andere den Inhalt sehen können.

Gesetze, um Notstände zu beseitigen

Endlich mal ein Text, der zeigt, dass mit einfachsten Mitteln schon längst das möglich ist, was Springer und Co zur Zeit fordern. Es würde sogar den Verlagen mehr nützen, da Google dabei zwar die Inhalte nicht indexiert, die Adressen aber sehr wohl in den Suchergebnissen auftauchen.

Aber ich verstehe nicht, wieso man dies jetzt rechtlich absichern muss. Bis jetzt gab es nach meinem Erkenntnisstand keinen Fall, in dem Google die robote.txt ignoriert. Es gab also bis jetzt nie etwas zu beanstanden. Was ist also der Notstand, weswegen man den Verlagen unter die Arme greifen und ein unnötiges Gesetz verabschieden muss, dass im Ernstfall wahrscheinlich nur Schaden anrichten kann? Muss man sich hier wirklich an den Koalitionsvertrag halten, obwohl jeder vernünftige Mensch einsieht, wie schwachsinnig dieses Gesetz ist?

Es braucht keine Gesetze, da der "Notstand" mit einfachsten technischen Mitteln zu beseitigen ist!