LeistungsschutzrechtDer Code ist das Gesetz

Verlage sollen ihre Leistung schützen, schreibt der FDP-Abgeordnete Jimmy Schulz. Doch er will dazu das Vorhandene nutzen: die robots.txt. Sie soll verbindlich werden. von Jimmy Schulz

Zum Thema Leistungsschutzrecht ist schon alles gesagt worden und auch schon von jedem. Die Fronten sind so verhärtet, dass jetzt Zeit ist, ein weißes Blatt Papier zu nehmen und nach einer neuen Lösung zu suchen.

Anstatt Regeln nur auf Suchmaschinen und ähnliche Dienste zu beschränken, schlage ich vor, alle Menschen einzubeziehen, die Inhalte im Internet bereitstellen. Aber nicht in Form von Verboten und Abgaben, sondern in Form eines Rechts. Alle, die Kreativleistungen erbringen, sollen das Recht erhalten, die Verbreitung ihrer Inhalte steuern und regeln zu können. Angesichts der besonderen Anforderungen des digitalen Zeitalters braucht es neue, daran angepasste Normen.

Anzeige

Ich fordere insbesondere, dass verlegerische Konzepte nur nach der Zustimmung der Verleger durch maschinelle Erfassung ausgebeutet werden dürfen. Das bedeutet, wenn jemand wünscht, dass die eigenen Inhalte im Internet nicht gefunden werden sollen, sollte dieser Wunsch auch rechtlich geschützt sein.

Jimmy Schulz
Jimmy Schulz

Jimmy Schulz ist Mitglied des Deutschen Bundestages und Obmann der FDP in der Enquete-Kommission "Internet und digitale Gesellschaft" und Mitglied im Unterausschuss Neue Medien. In beiden Gremien werden Themen wie Urheberrecht und digitaler Wandel debattiert. Vor seiner politischen Laufbahn gründete er ein IT-Dienstleistungsunternehmen.

Auch jetzt schon kann es unterbunden werden, dass Nachrichtenaggregatoren beziehungsweise Suchmaschinen ein Werk im Internet finden, doch ist dieses Verbot bislang nur unverbindlich. Zwar kann ein Webseitenanbieter technisch, durch die sogenannte robots.txt, den Suchmaschinenbetreiber darauf hinweisen, dass er nicht gefunden werden möchte. Diese standardisierte Datei, die jeder Webseitenanbieter für die eigene Seite bereitstellen kann, wird von den Suchalgorithmen der Suchmaschinen erkannt und verarbeitet. In ihr sind Regeln definiert, wie die Seite durchsucht werden darf und was ignoriert werden soll. Die robots.txt dient damit als Wegweiser und Türsteher, mit der die zugänglichen Bereiche seitengenau definiert werden können.

Das ist aber nur eine Empfehlung, die der jeweilige Webseitenanbieter abgibt und die momentan rechtlich nicht durchgesetzt werden kann. Bislang war es ein Gentleman's Agreement, dass sich beispielsweise Google an diese vom Webseitenbetreiber vorgegebenen Empfehlungen hält.

Rechtsverbindliche robots.txt

Ich möchte gerne diese Schutzlücke beheben, indem wir diese etablierten Vorgaben rechtsverbindlich machen. Webseitenbetreiber können so auf ihren Angeboten klare Regelungen treffen, welche Inhalte von welchen Diensten maschinell erfasst werden dürfen. Verstößen sollen sie mit einem Unterlassungsanspruch begegnen können. Insbesondere Presseverlage können auf diesem Wege online den Schutz ihrer Werke gegenüber den Newsaggregatoren durchsetzen, indem sie ihre Produkte oder Teile der Produkte dem Zugriff der Aggregatoren beziehungsweise Suchmaschinen entziehen.

Man könnte diese Idee noch ergänzen. Die im Textteil einer Webseite bereitgestellten Informationen könnten anders bewertet werden als die Informationen, die sich im sogenannten Head, also auf dem Umschlag einer Webseite befinden. Die dort extra zur Verwendung von Suchmaschinen bereitgestellten Inhalte wären damit für alle frei nutzbar, die Website selbst, der sogenannte Body, bliebe geschützt.

Leserkommentare
    • riessm
    • 05. September 2012 16:55 Uhr

    ...Möglichkeit wurde schon ganz zu Beginn des Nachdenkens über ein Leistungsschutzrecht hingewiesen und die Verlage haben durch ihre Forderungen klar gemacht: "Wir wollen gefunden werden UND wir wollen Geld dafür."

    Insofern sehe ich den Sinn dieses Artikels nicht, es sei denn hier steht zwischen den Zeilen, dass man dann auch kein Leistungsschutzrecht der derzeit angestrebten Form braucht. Das ist aber für mich wenig erkennbar. So fällt der Artikel bei mir unter die Kategorie: 'Wow, ein MdB hat tatsächlich etwas, das mit Technik zu tun hat, verstanden und fordert jetzt, dass das seit langem unfallfrei praktizierte Recht zu gesetzlichem Recht wird.' Juchu!

    Wer übrigens glaubt, dass die deutschen Verlage auch nur einen Cent von Google sehen, hat noch nie nach Belgien geschaut.

    Reaktionen auf diesen Kommentar anzeigen
    • LP
    • 05. September 2012 23:52 Uhr

    ...wie einseitig das Leistungsschutzrecht gestrickt ist. Die Verlage haben damit schon jetzt die Möglichkeit, Google daran zu hindern, ihre Inhalte zu "verwerten".

    Die Verlage wollen aber auch gefunden werden. Nun ja, da kann ich nur sagen: "Entschiedet Euch was ihr wollt." Google für sein Geschäftsmodell belangen zu wollen, weil man weder das Eine noch das Andere möchte, ist unsinnig. Genauso gut könnte man zu den Verlagen sagen: "Ich möchte Eure Zeitung lesen, aber nicht dafür bezahlen." Dazu ein "Leserecht" einzufordern wäre fast vergleichbar mit dem, was die Verlage wollen. Welcher Verlag würde sich darauf aber einlassen?

    Ja, das Netz stellt uns alle vor große Herausforderungen. Aber lösen werden wir diese Herausforderungen nur gemeinsam, nicht gegeneinander. Dass das einfach ist hat nie jemand behauptet.

    Die robot.txt-Datei für rechtlich verbindlich zu erklären fände ich o.k. So wird zumindest sichergestellt, dass der Wunsch des Einzelnen, seine "geistige Schöpfung" vor unliebsamen Zugriffen zu schützen, auch wirklich respektiert wird. Natürlich kann ich meine Seite z. B. auch per Passwort schützen, dass aber ist technisch gesehen schon wieder anspruchsvoller als das Erstellen einer robot.txt-Datei. Und ich finde es ist sinnvoll, die Hürden so niedrig wie möglich zu halten.

    Schwarze Schafe, die die robot.txt-Datei umgehen, wird es natürlich immer geben. Aber das kann ja kein Argument dafür sein, das Recht des einzelnen Seitenbetreibers nicht zu stärken.

  1. Webseiten werden nur von Suchmaschinen gelistet, wenn sie gelesen werden kann. Das ist der springende Punkt!
    Wenn dagegen die Verlage eine (Bezahl-)schranke einführen kann niemand außer ihr Kundenkreis darauf zugreifen. Problem gelöst.

    Wenn ich meine Haustüre offen stehen lasse, muss ich mich nicht wundern, wenn ein paar Leute durchs Wohnzimmer laufen.
    Deshalb sollte man seine Tür/Webseite abschließen, wenn man nicht will, dass andere den Inhalt sehen können.

    • Thems
    • 05. September 2012 17:09 Uhr

    Endlich mal ein Text, der zeigt, dass mit einfachsten Mitteln schon längst das möglich ist, was Springer und Co zur Zeit fordern. Es würde sogar den Verlagen mehr nützen, da Google dabei zwar die Inhalte nicht indexiert, die Adressen aber sehr wohl in den Suchergebnissen auftauchen.

    Aber ich verstehe nicht, wieso man dies jetzt rechtlich absichern muss. Bis jetzt gab es nach meinem Erkenntnisstand keinen Fall, in dem Google die robote.txt ignoriert. Es gab also bis jetzt nie etwas zu beanstanden. Was ist also der Notstand, weswegen man den Verlagen unter die Arme greifen und ein unnötiges Gesetz verabschieden muss, dass im Ernstfall wahrscheinlich nur Schaden anrichten kann? Muss man sich hier wirklich an den Koalitionsvertrag halten, obwohl jeder vernünftige Mensch einsieht, wie schwachsinnig dieses Gesetz ist?

    Es braucht keine Gesetze, da der "Notstand" mit einfachsten technischen Mitteln zu beseitigen ist!

  2. daß der so genannten Enquete-Kommission nach wie vor jeglicher technischer Sachverstand fehlt.

  3. alles in allem ist es ja zu begruessen, dass sich endlich mal jemand aufrafft und auf einem gehobeneren Niveau das Thema bearbeitet.
    Aber ich haette dann doch gerne mal die Grundsatzfrage geklärt: wobei verlieren Springer und Konsorten eigentlich Geld?? Bisher konnte mir keiner erklaeren, wo genau der Malus entsteht, wenn Aggregatoren Snippets oder gar Volltexte weiterverschicken. Es wird ja auf die Ursprungsseite, also die Seite des Verlages, gelinkt.

    Auch bei der Urheberrechtsdebatte faellt mir das schon auf: die Verwerter behaupten sie haben einen monetaeren Schaden, wenn Leute übers Netz Musik und Filme tauschen. Dabei hat sich bisher nur einer (Hammond, 2012) die Muehe gemacht und nachgeschaut, ob dem wirklich so ist: und siehe da: es stimmt nicht.
    Die Verwerter lügen, wenn sie behaupten dass ihnen das Geld aus der Tasche geklaut wird. Genauso wie die Printverwerter luegen wenn sie behaupten, dass die Aggregatoren ihnen die von den Autoren hart erarbeiteten Texte klauen.

    Es mag sein, dass den Verlegern das Geld knapper wird. Aber das liegt weiss Gott nicht am Internet, sondern an den Verlagern

    • m-k
    • 05. September 2012 21:37 Uhr

    Die Lösung via robots.txt macht keinen Sinn, da ddie so gesperrten Seiten bzw. Verzeichnisse generell gesperrt werden und dementsprechend auch nicht in den Suchergebnissen gelistet werden können.
    Hilfreicher wäre da das nosnippets-Tag, welches von Google auch unterstützt wird.

    http://support.google.com...

    Die Rechtsverbindlichkeit ist ein interessanter Gedanke, wobei man Google zugute halten muss, dass sie sich immer an beide Standards gehalten haben.
    Dennoch bleibt das Grundproblem, dass die Verlage nicht um ihr Urheberrecht kämpfen, sondern mangels besserer Ideen einen Weg suchen, um Geld einzutreiben.

    • eeee
    • 05. September 2012 22:01 Uhr

    Ich will gefunden werden, aber nicht von einer Suchmaschine?

  4. "Einige sind gleicher als andere", auf diese Formel brachte einst G. Orwell den immer wieder zu beobachten Umstand, dass Subjekte mit dem Drang zur Macht aus der Masse ausbrechen u. das System dominieren wollen: Mit der Macht ihrer Advokaten stellen sie sich nun einer in weiten Teilen selbstlosen Internet- Community gegenüber, welcher die Infrastruktur u. Popularität des Internets zu verdanken ist, deren Code u. Content sie tagtäglich wie selbstverständlich zu Vermarktungszwecken nutzen, deren breite Plattform sie für ihre eigene Geschäftstätigkeit "missbrauchen" - wie selbstverständlich alles gratis.

    Wie, sehr geehrte Verlagsmafia, werden wir IHNEN imi Gegenzug künftig die Verwendung von Wikipedia-Inhalten, Top-Blogs, Youtube-Filmchen o. Technikforen-Inhalte in Rechnung stellen? Oder leugnen sie dien Umstand, das SIE selbst permanent Informationen aus dem Netz beziehen, auswerten, verwerten, vermarkten - und dies gratis?

    Internet kann nur gleichberechtigt funktionieren, sie aber machen sich zum Totengräber des Webs! Ziehen sie doch einfach um, gründen eine eigene Internet -Plattform, doch dort würde ihnen wohl bald langweilig, so allein, weil dort Ihnen etwas fehlt,was sie wie selbstverständlich gratis als Plattform beanspruchen: Eine bunte, gemischte Community, die von ihrer Selbstlosigkeit lebt, deren Gratis-Inhalte Menschen erst ins Internet locken und das WEB zu dem macht, was es heute ist.

    Einst kamen sie als Gast ins Internet, nun wünschen sie es zu kontrollieren.

Bitte melden Sie sich an, um zu kommentieren

  • Artikel Auf einer Seite lesen
  • Quelle ZEIT ONLINE
  • Schlagworte Google | Datenschutz | Grundrecht | Internet | Norm | Selbstbestimmung
Service