Sucheingabe

RuW Login/Registration

Inhaltsverzeichnis

Jahr: 2013  Heft: 2  Seite: 73
Höppner, Thomas
RA Dr. Thomas Höppner, LL.M., Berlin *

Technisch-ökonomische Aspekte des Leistungsschutzrechts für Presseverleger

Zur "Verteidige Dein Netz!"-Kampagne und anderen "Fakten" zum Gesetzesentwurf

Am 29. 8. 2012 verabschiedete die Bundesregierung einen Gesetzesentwurf zur Einführung eines Leistungsschutzrechts für Presseverleger. Daraufhin startete Google eine große Internet-Kampagne. Das Gesetz schade allen und nütze niemandem. Der Beitrag untersucht die von Google behaupteten 10 Fakten und Folgen eines Leistungsschutzrechts auf ihre Stichhaltigkeit und Relevanz für das Gesetzgebungsvorhaben. Er soll zudem etwas mehr Licht ins Dunkel von Suchmaschinen bringen.

I. Einführung

Am 26. 11. 2012 staunten nicht wenige, als sie plötzlich auf ihrer sonst so betont übersichtlichen Google-Startseite angesprochen wurden: "Willst Du auch in Zukunft finden, was Du suchst? Mach' mit: Verteidige Dein Netz". Ein Klick führte den User zu einem Portal mit "Fakten" und "Folgen" eines Leistungsschutzrechts für Presseverleger, verbunden mit der Aufforderung, sich beim nächsten Bundestagsabgeordneten gegen den Gesetzesentwurf zu wenden. Dessen Kontaktdaten lieferte Google gleich mit. Ein bislang einmaliger Vorgang in Deutschland.

Einen Tag später veröffentlichte auch das renommierte Max-Planck-Institut für Immaterialgüter- und Wettbewerbsrecht eine Stellungnahme zum Gesetzesentwurf1 mit ähnlichen Tatsachenannahmen und Schlussfolgerungen.

Nun kann man zur dogmatischen Verankerung und rechtlichen Ausgestaltung eines Leistungsschutzrechts für Presseverleger geteilter Meinung sein. Über die technischen und ökonomischen Rahmenbedingungen hinter dem Gesetzesvorhaben sollte man aber eigentlich nicht mehr diskutieren müssen. Gerade auf dieser Ebene spielt sich jedoch ein Großteil der juristischen Debatte ab. Tatsächlich ist in dem vom Gesetzesentwurf adressierten Bereich von Suchmaschinen und Aggregatoren vieles nicht schwarz oder weiß, sondern grau und intransparent.

Mangels Regulierung können Suchdienste ihre Funktionen selbst bestimmen und jederzeit ändern. Die konkreten Auswirkungen ihrer Schritte bleiben jedoch für Website-Betreiber im Verborgenen. Auch wie sich bestimmte Maßnahmen von Website-Betreibern, z. B. technische Schutzvorkehrungen, auf die Darstellung ihrer Seiten in den Aggregatoren auswirken, ist häufig reine Spekulation. Kaum eine Industrie agiert mit so vielen Mutmaßungen wie die Suchmaschinenoptimierung (SEO). Gleichzeitig haben Suchmaschinen wie Google technologiebedingt den besten Überblick über alle Traffic-Flüsse im Internet. Daraus ergibt sich eine Informationsasymmetrie gegenüber anderen Unternehmen, Internetnutzern und staatlichen Aufsichtsgremien. Suchmaschinen haben einen ökonomischen Anreiz, diese Asymmetrie einzusetzen, um den Rechtsrahmen in eine für sie günstige Richtung zu drängen.2 Die Kritik an der nationalen Rechtsprechung zum Suchmaschinenrecht3 legt nahe, dass ihnen dies bereits gelungen ist. Vor diesem Hintergrund wäre es zu begrüßen, die Diskussion um das Leistungsschutzrecht für Presseverleger von einigen irreführenden, aber immer wieder aufgeworfenen Tatsachenbehauptungen zu befreien. Die Rechtsfragen sind schwierig genug. Der nachfolgende Blick auf die von Google und dem Max-Planck-Institut zugrunde gelegten "Fakten" mag hierzu einen Beitrag leisten.

II. Zur Behauptung, Aggregatoren würden nur den Traffic zu Verlagsseiten erhöhen

Ein Standardeinwand gegen das Leistungsschutzrecht für Presseverleger lautet, Suchmaschinen und Anbieter, die Inhalte entsprechend aufbereiten (nachfolgend zusammen: Aggregatoren) würden Verlagsseiten als eine Art Gegenleistung zusätzlich Traffic vermitteln, den diese vermarkten könnten. Google meint daher, ein Leistungsschutzrecht sei "Markwirtschaft paradox. 'Klicks' sind die Währung des Internets. Google leitet davon pro Monat weltweit vier Milliarden auf Verlagsseiten, das sind pro Minute (!) 100 000 'Klicks' ". Das Max-Planck-Institut ließ sich sogar zu folgender Aussage hinreißen: Online-Angebote von Presseverlegern "werden durch Suchmaschinen nicht substituiert, sondern das Gegenteil ist der Fall: Die Möglichkeit, solche Inhalte aufzufinden, wird gefördert. Im Ergebnis landet der die Information Suchende beim Verlagserzeugnis; Suchmaschinen vermindern also nicht den sog. Jahr: 2013 Heft: 2 Seite: 74 'Traffic' auf den Webseiten der Verleger, sondern sie erhöhen ihn".4

1. Aber: Aggregatoren steigern nicht die Nachfrage, sondern befriedigen einen Teil selbst

Tatsächlich ist diese Behauptung theoretisch schwer begründbar; Studien legen das Gegenteil nahe. Aggregatoren schaffen keinen zusätzlichen Traffic. Die Nachfrage nach Informationen geht von Verbrauchern aus, nicht von Aggregatoren. Die Gesamtnachfrage ist ein Fixum. Aggregatoren erhöhen die Nachfrage nicht. Sie verteilen lediglich die Nachfrager, die ihren Bedarf online decken, auf die einzelnen Onlineanbieter. Der Anteil dieser Nachfrager hat sich in den letzten Jahren stetig erhöht. Dies liegt aber weniger an den Aggregatoren als an höherwertigeren Onlineangeboten, wie Presseportalen, die mehr Leser ins Netz locken. Leser suchen Inhalte nicht Aggregatoren.

Die meisten Aggregatoren leiten heute nicht mehr 100 % der Gesamt(online)nachfrage an die Anbieter weiter, sondern befriedigen einen Teil der Nachfrage selbst. Dies ist jedenfalls der Fall, wenn sich die Aggregatoren nicht auf die Darstellung "blanker" Links aus der Webadresse der verlinkten Zielseite beschränken, sondern auch Auszüge aus den verlinkten Texten anzeigen.

Im Fall von Nachrichten können derart "sprechende" Suchergebnisse den wesentlichen Sinngehalt des verlinkten Textes vorwegnehmen. Dies liegt an den Besonderheiten des Konsums von Nachrichten. Anders als Videos, Musik oder Bücher werden Nachrichten nicht primär zur Unterhaltung oder zum Zeitvertreib konsumiert. Der Nutzen für den Konsumenten hängt nicht von einer Mindestlänge des Werkes ab. Der typische Konsument möchte im Gegenteil einen raschen Überblick, was es Neues gibt. Er überfliegt Nachrichtenübersichten nach etwas Interessantem, nicht nach etwas zum Lesen.5 Längere Texte, also Detailinformationen, lesen Konsumenten nur zu wenigen, sie persönlich wirklich interessierenden Fragen. Dies ist online nicht anders als offline.6

Gute journalistische Beiträge geben das Wesentliche bereits durch eine aussagekräftige Überschrift und wenige Sätze wieder. Übernimmt ein Aggregator nun diese Schlüsselsätze, kommuniziert er bereits das für den User Wesentliche. In welchem Umfang dies geschieht, hängt von der Länge und Auswahl der Textauszüge ab, die der Aggregator wiedergibt. Überschriften, mehrere für den Leser besonders relevante Textauszüge ("Snippets") und/oder Vorschaubilder können ohne Weiteres die wichtigsten Botschaften der verlinkten Texte übermitteln. Um ihren Informationsgehalt zu erfassen, brauchen Leser nicht den vollständigen Artikel zu lesen, indem sie auf das Suchergebnis klicken. Durch die Textauszüge wird oft alles zusammengefasst. Viele Aggregatoren liefern derartige Ergebnisse automatisiert, ohne jede Suchanfrage, gerne auch per E-Mail oder SMS und zeitungsähnlich nach Rubriken sortiert. Zudem ermöglichen sie es Usern, die Darstellung so zu verändern und zu personalisieren, dass nur Textauszüge von zuvor ausgesuchten Bereichen erscheinen. Dadurch können sich User von allem befreien, für das sie sich nicht interessieren, um sich auf ihre persönlichen Interessengebiete zu fokussieren. Mit einer klassischen Websuche haben solche Aggregationsdienste nur noch wenig gemein.

Nach einer Studie von 2010 klickten knapp die Hälfte der Nutzer von Google News nicht auf eine Originalseite weiter: "Google's effect on the newspaper industry is particularly striking. Though Google is driving some traffic to newspapers, it's also taking a significant share away [.] A full 44 percent of visitors to Google News scan headlines without accessing newspaper's individual sites."7 Andere gehen von einem noch höheren Anteil an Lesern aus, denen das Überfliegen der Zusammenfassungen auf Google News für die Befriedigung ihres Informationsbedürfnisses "nichts zu verpassen" genügt.8

Schon das Belgische Berufungsgericht hatte im grundlegenden und nun rechtskräftigen Urteil Copiepresse9 festgestellt: "Google beschränkt sich mit Google News nicht darauf, Verweisungen zu veröffentlichen, die es lediglich Internetnutzern erlauben, Zugang zu Verlegeberwebseiten zu erlangen. [.] Google News beschränkt sich nicht auf die Platzierung von Hyperlinks, sondern reproduziert signifikante Abschnitte der Artikel der Verlage. [.] Es wählt die Informationen aus, klassifiziert sie in einer Reihenfolge und entsprechend seiner eigenen Methode, insbesondere indem Google einen Artikel zugunsten eines anderen auswählt, in Fett druckt, einen Abschnitt vervielfältigt und, manchmal, sogar seinen Inhalt verändert. Google ist daher kein 'passiver Vermittler' [.] Es wurde demonstriert, dass Internetnutzer, die 'Google News' konsultieren, perfekt über das Wesentliche informiert werden, was in der Presse veröffentlicht wird und dass sie nicht länger die Artikel selbst aufsuchen müssen. Also ist das Ziel von 'Google News', in gewissen Umfang, die Seiten der Verlage zu ersetzen."10

Bei dieser Würdigung ist der E-Mail-Versanddienst Google Alert noch nicht einmal berücksichtigt. Bei anderen Aggregatoren mit längeren Textauszügen ist der Anteil der durchklickenden Leser noch kleiner. Weil sich Aggregatoren technologisch aus allen Presseportalen bedienen und einen "One-Stop-Shop" versprechen, erscheinen sie für viele Leser attraktiver als die Quellseiten. Nach einer Studie suchen ca. viermal so viele Leser Aggregatoren statt Presseportale für den Nachrichtenkonsum auf.11 Jeder dieser Aggregatoren steht im direkten, intermodalen Wettbewerb mit den Verlagsportalen, wenn er zeitnah und systematisch die aktuellen Ereignisse darstellt, die die Verlagsportale auf ihren Seiten publizieren. Durch diese zeitnahe eigene Darstellung berauben die Aggregatoren Verlagsportale ihrer Möglichkeit, selbst diese Ereignisse an ihre Leser zu kommunizieren und die so gewonnene Aufmerksamkeit durch Werbung zu amortisieren.

2. Aber: Nicht einmal Aggregatoren glauben an die These

Träfe die Behauptung zu, die Anzeige von Inhalten durch Aggregatoren erhöhe lediglich den Traffic zu den Quellseiten, müsste man Google (und anderen Aggregatoren) im Übrigen unwirtschaftliches Verhalten unterstellen. Dann Jahr: 2013 Heft: 2 Seite: 75 wäre nämlich nicht erklärbar, warum Google's robots.txt anderen Aggregatoren den Zugriff auf viele Inhalte verwehrt. Träfe Googles These "mehr Traffic durch Suchmaschinen" zu, bestünde doch jeder Anreiz, andere Suchdienste auf die eigenen Inhalte zugreifen zu lassen, damit die Inhalte über Bing, Yahoo! und andere Suchen zusätzlichen Traffic einspielen. Das macht Google aber nicht - aus gutem Grund. Google kann sich den Einsatz von robots.txt auch leisten. Im Gegensatz zu allen anderen Website-Betreibern muss sich Google keine Sorgen machen, gefunden zu werden. Dafür kann das Unternehmen über die Begünstigung eigener Inhalte im Suchalgorithmus selbst sorgen.12

Im Ergebnis stellt die Aussage, Aggregatoren verschafften Verlegern zusätzlichen Traffic, die Verhältnisse auf den Kopf. Würden sich Aggregatoren nicht als Vermittler zwischen Usern und Presseportalen ausbreiten und das Nachrichten-Informationsbedürfnis mit kopierten und/oder eigenen Inhalten zunehmend selbst befriedigen, bliebe die Gesamtnachfrage dieselbe; die User müssten sie aber anders befriedigen, z. B. indem sie Online-Presseportale direkt aufrufen - oder zur Zeitung greifen.

III. Zum Argument, Google vermittele deutschen Verlagsseiten rund die Hälfte der Leser

Aus denselben Erwägungen ist auch Googles "Fakt" irreführend, seine Dienste vermittelten vielen Verlagsseiten rund die Hälfte ihrer Leser. Google betont in seiner Kampagne: "Auf die Onlineseiten der Tageszeitung 'Die Welt' (Axel Springer) kommen 45 % der Leser via Google.de, bei der Onlineausgabe des 'Focus' (Burda) sind es sogar durchschnittlich 49 %, die zumindest einmal im Monat über Google dorthin gelangen."

Diese Feststellung geht an der Sache vorbei. Es geht ökonomisch nicht darum, wie viele Leser Aggregatoren auf Verlagsseiten verweisen, sondern wie viele Leser sie nicht zu ihnen durchlassen: Schutz wird gegen die unautorisierte Darstellung von Textauszügen gesucht, da diese geeignet ist, das Informationsbedürfnis direkt durch den Aggregator zu befriedigen und dadurch Leser von einem Aufsuchen der Verlagsseiten abzuhalten. Wie viel Zeit Leser auf google.de oder newsgoogle.de auf der Suche nach Nachrichten verbringen, aber dann nicht auf einer Verlagsseite landen, teilt Google nicht mit.

Wenn die Hälfte der Leser so bekannte Tageszeitungen wie die "Die Welt" und der "Focus" online über Google aufsuchen, statt die Portale direkt anzusteuern, zeigt dies eher die Schutzwürdigkeit der Verleger. Der hohe Anteil verdeutlicht, wie infolge von Googles Omnipräsenz immer weniger User selbst bekannte Websites über den Browser aufrufen. Damit sind auch markenstarke Portale von der Anzeige ihrer URLs durch Google abhängig geworden. Google präsentiert sich als Allround-Informationsportal, das Lesern den Weg zu Nachrichten ganz einfach macht. Darum rufen weniger User Presseportale direkt auf, sondern schalten die Suchmaschine dazwischen. Nur landen dann nicht mehr alle User, die erst durch die Nachrichten der Presseverleger ins Netz und zu Google gelockt wur-den, auch noch auf den Seiten der Verleger. Bei kleine-ren, weniger bekannten Tageszeitungen ist der Anteil des Traffic, der über google.de kommt, im Übrigen häufig noch bedeutend größer. Sie sind also ökonomisch noch abhängiger von einer Auffindbarkeit ihrer URLs in google.de.

IV. Zur Behauptung, Suchmaschinen dürften "Snippets" völlig legal anzeigen

Google behauptet: "2003 hat der BGH in einer Grundsatzentscheidung die Verwendung von Textausschnitten durch Suchmaschinen, um dort verlinkte Inhalte auffindbar zu machen, ausdrücklich erlaubt. 'Paperboy'-Entscheidung des BGH (Urteil vom 17. 7. 2003 - I ZR 259/00)".

Die Aussage gibt das Paperboy-Urteil ungenau wieder. Richtig ist, dass der BGH in dem Setzen eines Hyperlinks auf eine fremde Webseite keine urheberrechtliche Nutzungshandlung gesehen hat. Der BGH befasste sich aber nicht mit der Zulässigkeit der Anzeige von Textausschnitten, sondern allein mit der Zulässigkeit des Setzens von Links. Das bloße Verlinken hielt der BGH für zulässig, da ein Link "lediglich auf das Werk in einer Weise verweist, die Usern den bereits eröffneten Zugang erleichtert"13 und die Benutzung der verlinkten Werke "nicht ersetzt, sondern allenfalls anregt".14 Damit hatte der BGH vor zehn Jahren über einen Sachverhalt zu entscheiden, der mit der heutigen Nutzung von Presseartikeln durch Aggregatoren nicht mehr viel gemein hat: Aggregatoren beschränken sich längst nicht mehr auf die Platzierung reiner Links aus einer URL, um "lediglich den Abruf vom Berechtigten öffentlich zugänglich gemachter Informationsangebote [.] für User [zu] erleichtern",15 wie es der BGH voraussetzte. Die direkte Wiedergabe einer Information im eigenen Werbeumfeld ist etwas anderes als die bloße Anregung zum Konsum im Umfeld des Informationslieferanten durch das bloße Verlinken. Wenn, wie im Beispiel von Google News, die Hälfte der Nutzer auf keine Verlagsseite mehr durchklicken (muss),16 kann keine Rede davon sein, deren Benutzung werde "nicht ersetzt, sondern allenfalls angeregt". Das Paperboy-Urteil stellt damit keinen Präzedenzfall für die Fragen dar, um die es beim Leistungsschutzrecht geht.

V. Zum Argument, Suchmaschinen würden eine eigene Leistung erbringen

Das Max-Plack-Institut meint: "Ebenfalls anders als bei für Schutzrechte typischen Konstellationen geht es nicht darum, dass ein Marktteilnehmer die Leistung eines anderen ohne eigene Leistung übernimmt. Die Funktionsfähigkeit von Suchmaschinen beruht vielmehr auf einer selbständigen, abgrenzbaren Leistung ihrer Betreiber. [.] Dabei ist das Zusammenwirken beider Investitionen erforderlich, damit die Technologie des Internet überhaupt sinnvoll genutzt werden kann"17

Auch diese Ausführungen verkennen den Unterschied zwischen einem bloßen Verlinken zu Suchzwecken und der eigenen Beantwortung von Fragen durch Aggregatoren. Im Übrigen überzeugen die Aussagen zu den getätigten Investitionen auch nur für horizontale Suchmaschinen, die die "Informationsfülle" des gesamten Internets über einen Index systematisieren. Von denen gibt es heute real noch genau zwei: Google und Bing/Yahoo!.18 Die Investitionen Jahr: 2013 Heft: 2 Seite: 76 in diese Suchdienste und ihre - zumindest für Google - hochprofitable Refinanzierung durch Werbung werden durch das Leistungsschutzrecht nicht in Frage gestellt. Google betont selbst,19 auf Google News keine Werbung zu schalten und nur 1,1 % der Google AdWords-Anzeigen auf Seiten auszuspielen, auf denen Verlagsinhalte dominieren.20 Zum anderen erfasst das Leistungsschutzrecht schon nicht die bloße Verlinkung,21 die für die Funktionsweise der Websuche ausreicht.

Die Leistungen für die allgemeine Websuche sind nicht mit den Investitionen für News-Aggregatoren gleichzusetzen. Die Nachrichtendienste von Google und Bing/Yahoo! sind Nebenprodukte. Google News wurde angeblich über ein Wochenende errichtet.22 Der Dienst läuft vollautomatisch ohne einen einzigen Journalisten. Das Geschäftsmodell der meisten News-Aggregatoren beruht auf einem systematischen Ausnutzen verlegerischer Leistungen. Die Aggregatoren können die kopierten Inhalte zu geringsten Kosten an ihre Kunden verbreiten und trotzdem noch einen Gewinn erzielen.23 Manche schaffen durch ihre Bündelung von Informationen einen echten Mehrwert für User. Das ändert allerdings nichts daran, dass sie keinen eigenen Beitrag zur zugrunde liegenden Recherche, Analyse und Zusammenstellung von Inhalten leisten. Diese Leistungen machen aber eine gute Presse und den Wert von Nachrichten aus; sie gilt es zu schützen.

VI. Zum Argument, Google News schalte keine Werbung

In Googles Kampagne heißt es: "Auf dem Angebot von Google News gibt es keinerlei Anzeigen oder sonstige Werbung".

Was Google verschweigt: Auch ohne Werbung hat Google News dem Unternehmen nach eigenen Angaben bereits im Jahr 2008 über 100 Mio. US-Dollar eingespielt: "Google News is free and has zero ads. So what's it worth to Google? About $100 million. That's the figure Google vice president Marissa Mayer, who heads search products and user experience, threw out during a [.] conference in Half Moon Bay, Calif. How does she put a value on a product that doesn't directly make money? The online giant figures that Google News funnels readers over to the main Google search engine, where they do searches that do produce ads. And that's a nice business. Think of Google News as a $100 million search referral machine."24

Ökonomisch überrascht das Ergebnis wenig: Suchmaschinen sind mehrseitige Märkte mit Netzwerkeffekten.25 Mehr Informationen - wie News - locken mehr User an; mehr User bringen mehr Werbekunden. 100 Mio. US-Dollar schon im ersten Jahr nach Einführung von Google News ist nicht wenig, zumal wenn man die geringen Investitionskosten bedenkt (s. unter V.). Die Zahl verdeutlicht den hohen Wert von Nachrichten, nur dass in diesem Fall die Millionen an Google und nicht an die Verleger oder Journalisten/innen fließen, die alle Kosten für die Nachrichtenbereitstellung tragen.

Wenn überhaupt, zeigt der Verzicht auf Werbung in Google News die Bedeutung des Dienstes für Google. Das Unternehmen opfert Werbeerlöse, um Google News attraktiver zu machen: Plattformen ohne Werbung locken mehr User an, da Werbung jedenfalls im Umfeld von Nachrichten oft als störend empfunden wird.26 Der Verzicht auf Werbung verschafft Google News einen Vorteil gegenüber Nachrichtenportalen, die auf Werbung angewiesen sind (und wegen dieser von Google schlechter gerankt werden27). Hierin dürfte das eigentliche Motiv für den Verzicht auf Werbung in Google News liegen.

Im Übrigen liegt es schon im Ansatz neben der Sache, ob und wo Aggregatoren Anzeigen schalten. Auch der Verzicht auf eine Verwertung kopierter Werke macht das Kopieren noch nicht rechtmäßig. Allenfalls fällt der Schaden geringer aus. Es geht beim Leistungsschutzrecht nicht um eine Sozialisierung der Gewinne erfolgreicher Unternehmen. Es sollen besondere Leistungen vor einer kommerziellen Fremdverwertung geschützt werden - wie auch immer diese gestaltet ist.

VII. Zur Behauptung, Verlage könnten sich problemlos mittels robots.txt abmelden

Google nennt als ersten "Fakt" gegen ein Leistungsschutzrecht, jeder Verlag könne "schon heute selbst entscheiden, ob seine Seiten von Google gefunden werden. Verlage, die mit ihren Seiten nicht in Google-Diensten gelistet werden möchten, können sich jederzeit mit einem kurzen Textcode (robots.txt) auf der eigenen Homepage 'abmelden' ". Dafür sei kein Leistungsschutzrecht erforderlich. Auch das Max-Planck-Institut betont, dass es "mit einfachen technischen Mitteln ohne weiteres möglich wäre, die heute üblichen Linksetzungen zu unterbinden."28 Presseverlage würden hiervon aber ersichtlich keinen Gebrauch machen. Die bestehenden, aber nicht genutzten Sperroptionen stellen auch für andere einen Hauptkritikpunkt am Leistungsschutzrecht dar.29

Tatsächlich verfängt das Argument nicht. Schon aus grundsätzlichen Erwägungen schmälert ihre Option, auf die Teilnahme am Internet zu verzichten, nicht das Schutzinteresse der Verleger (dazu unter 1.). Jede Sperre führt zu Nachteilen im intramedialen Wettbewerb zwischen Presseportalen, weil Websites, die einzelne Inhalte sperren, schlechter gerankt werden (unter 2.). Ein näherer Blick auf die derzeit akzeptierten rudimentären Sperroptionen zeigt gerade, warum Verleger gesetzlichen Schutz benötigen (unter 3.). Selbst ausgefeiltere Sperroptionen, die Suchdienste derzeit verweigern, können ein Leistungsschutzrecht nicht ersetzen, nur ergänzen (unter 4.).

Jahr: 2013 Heft: 2 Seite: 77 1. Aber: Sperroptionen wurden von Aggregatoren vorgegeben und hängen von deren Gnade ab

Website-Betreiber haben derzeit zwei Instrumente, um zu verhindern, dass Suchroboter (Robots) ihre Webseiten durchsuchen (crawlen) und Inhalte in einen Index aufnehmen (indexieren). Sie können im Stammverzeichnis ihrer Website eine sog. robots-txt-Datei mit bestimmten Anweisungen ablegen, die Robots den Zugriff ganz oder teilweise untersagen. Oder sie verwenden sog. Robot Meta-Tags im HTML-Quelltext einzelner Webseiten mit gleicher Wirkung.

Beide Optionen, robots.txt und Robot Meta-Tags machen den Zugriff auf eine Website nicht unmöglich, sondern dienen als Hinweisschilder "bitte nicht kopieren". Ihre Wirkung hängt von der freiwilligen Kooperation der Robots ab. Dass die Hinweise beachtet werden sollten, geht auf das sog. Robot Exclusion-Protokoll (REP) zurück, das 1994 durch etablierte Suchroboter-Programmierer festgelegt wurde. 2008 erkannten Google, Microsoft und Yahoo! eine eigene Fassung an. Viele kleinere Robots ignorieren das REP hingegen vollständig.30 Die Inhalteanbieter selbst konnten die Gestaltung des REP nicht maßgeblich beeinflussen. Das Protokoll stellt damit eine freiwillige, kartellähnliche private Vereinbarung zwischen gerade den Akteuren (Suchdiensten) dar, die das größte wirtschaftliche Interesse daran haben, Befugnisse von Website-Betreibern - als ihren Inhaltelieferanten - durch nicht praktikable oder unwirtschaftliche Sperroptionen so weit wie möglich zu begrenzen. Das prägt noch heute den einseitigen Charakter des REP.

Googles Hinweis auf die robots.txt ist insoweit auch geradezu symptomatisch für das Selbstverständnis vieler Aggregatoren. Statt nach den etablierten Regeln des Urheberrechts selber vor der Nutzung fremder Werke eine Einwilligung i. S. eines Opt-in einzuholen, werfen sie den Berechtigten vor, nicht die technischen Schritte des REP umzusetzen, die die Suchmaschinen unter sich ausgemacht und Website-Betreibern für einen Opt-out mehr oder weniger vor die Füße geworfen haben. Dies entspricht dem Internet-Expansionsethos der 90er Jahre, "just do it, and consult with the lawyers as you go".31 Mit Orientierung an der Rechtslage hat das wenig zu tun. Im Zusammenhang mit dem Leistungsschutzrecht ist der Verweis auf das REP so, als würden Hotelbewerter Hotels die Schutzwürdigkeit ihrer Zimmereinrichtungen vor einer Mitnahme absprechen, wenn die Hotels ihre Einrichtungen nicht mit einem "Bitte nicht bewerten"-Schild versehen, das die Hotelbewerter mehr oder weniger transparent zur Verfügung gestellt haben, ohne die Folgen solcher Schilder für die Bewertung eines Hotels offenzulegen.

2. Aber: Dem Sperrenden droht ein schlechteres Ranking nicht gesperrter Inhalte

Die bestehenden Optionen, um sich gegen die Verwertung von Leistungen durch Aggregatoren im intermodalen Wettbewerb mit diesen um User-Aufmerksamkeit zu wehren, haben einen zentralen Schwachpunkt: Derjenige, der eine Option wahrnimmt und einzelne besonders hochwertige Webseiten (HTML-Dokumente) "abmeldet", riskiert, vom ausgesperrten Aggregator mit einem schlechteren Ranking seiner übrigen Webseiten bestraft zu werden. SEO-Experten warnen daher vor den Auswirkungen jeder noch so ausgefeilten Sperrung bestimmter Inhalte über das REP. Es sei zu befürchten, dass dann auch nicht gesperrte Inhalte von den adressierten Aggregatoren schlechter gerankt,32 Webseiten seltener gecrawlt33 werden und ggf. PageRank34 verlieren.35

Diese Befürchtung ist plausibel. Führende Suchmaschinen ranken Websites auf Basis hunderter Faktoren, die sie als Geschäftsgeheimnis wahren. Neben der Klickrate und der Linkstruktur soll der Qualitätsfaktor einer Website ein wesentliches Kriterium sein.36 Soweit bekannt, bestimmen Aggregatoren den Qualitätsfaktor anhand aller auf einer Website gefundenen Inhalte. Beispielsweise erklärt Google: "Damit eine Website ein gutes Ranking in den Google-Suchergebnissen erzielt, ist es entscheidend, umfassende Informationen und nützliche Inhalte bereitzustellen".37 "Our site quality algorithms are aimed at helping people find 'high-quality, sites by reducing the rankings of low-quality content".38 Für die Frage der Hochwertigkeit beachtet Google unter anderem folgende Aspekte: "Was the article edited well, or does it appear sloppy or hastily produced? [.] Does this article contain insightful analysis or interesting information that is beyond obvious?"39 Verwehrt nun aber ein Website-Betreiber einem Aggregator den Zugriff auf seine im Zweifel hochwertigsten Inhalte über das REP, so kann und wird der Aggregator diese Qualitätsaspekte nicht (positiv) beurteilen können, sondern die "abgemeldete" Webseite als leere und damit für User irrelevante Hülle betrachten. Es ist wahrscheinlich, dass darunter der Qualitätsfaktor und damit das Ranking aller Seiten einer Website leidet.

Damit drohen einem Verlag bei jeder Sperrung von Artikeln aber erhebliche Nachteile im intramedialen Wettbewerb mit anderen Verlagen, der wirtschaftlich bedeutsamer ist als der intermediale Wettbewerb mit Aggregatoren. Zugleich haben es Aggregatoren über diese Wechselwirkungen in der Hand, mittels ihres Ranking-Mechanismus Presseverlage untereinander auszuspielen, um an möglichst viele kostenlose Inhalte zu gelangen. Durch den beschriebenen Qualitätsfaktor geben Aggregatoren ein klares Signal: Wir ranken Portale am besten, die uns die meisten und qualitativ hochwertigsten Inhalte kostenlos auswerten und anzeigen lassen.

Um nicht im intermedialen Wettbewerb um jeden einzelnen Klick unterzugehen, sehen einzelne Verlage oft keine andere Möglichkeit, als im Verhältnis zum Aggregator klein beizugeben und dessen Zugriff zu dulden. Dies gilt insbesondere, wenn Aggregatoren betonen, Artikel allein nach Qualität und Relevanz zu ranken. Denn dann werden User denjenigen Verlagen, die nur auf hinteren Suchergebnissen erscheinen, diese Attribute absprechen. Das kann einen Imageschaden verursachen, der über den Onlinebereich hinausgeht und sich nur schwer durch mehr Traffic Jahr: 2013 Heft: 2 Seite: 78 kompensieren lässt. Infolge des geringeren Qualitätsfaktors von Websites, die Inhalte sperren, müssen deren Betreiber im Übrigen auch höhere Klickpreise als nicht-sperrende Websites für (z. B. AdWords-) Anzeigen bieten, die auf ihre Website aufmerksam machen.40

3. Aber: Die bestehenden Sperroptionen sind praxisuntauglich a) Begrenzte Funktion des REP

Jenseits der grundsätzlichen Bedenken gegen jede Art der Sperrung von Inhalten, schützt das REP Verleger auch inhaltlich nicht angemessen. Google und andere suggerieren, über die robots.txt und/oder Robot Meta-Tags könnten die mannigfaltigen Nutzungen von Verlagsinhalten durch die zahlreichen Aggregatoren ganz einfach haarscharf unterbunden werden. Dem ist aber nicht so. Das REP liefert Website-Betreibern nur holzschnittartige Werkzeuge mit breiten und für sie völlig unkontrollierbaren Streuverlusten. Auf eine praktikable technische Steuerung des Zugriffs durch Aggregatoren zielt das REP auch gar nicht ab: Der Einsatz von robots.txt und Robot-Meta-Tags betrifft allein das Crawlen und Indexieren einer Webseite. Beim Leistungsschutzrecht geht es hingegen um die gewerbliche Verwertung der von einem Suchdienst indexierten Inhalte.

Verleger wollen und müssen weiterhin von Suchmaschinen indexiert werden, damit User ihre URLs bei einer Suchanfrage finden und die Verleger am Wettbewerb zwischen Presseportalen teilnehmen können. Verleger stört aber die über die Anzeige einer URL hinausgehende Nutzung indexierter Inhalte. Sie möchten die Anzeige von Textauszügen stärker kontrollieren können. Zum Beispiel möchten Verleger speziellen News-Diensten, wie Google News oder Yahoo! News, die Anzeige von Textauszügen untersagen können, ohne dass dies negative Auswirkungen auf das Ranking ihrer Webseiten auf anderen Plattformen hat, z. B. in der allgemeinen Websuche von Google und Yahoo!. Für solche Differenzierungen gibt es ein berechtigtes ökonomisches Interesse, kann doch die über eine URL hinausgehende Einblendung von Nachrichten-Snippets in speziellen News-Diensten - wie gesehen41 - dazu führen, dass weniger User auf Verlagsseiten gelangen, weil bereits der Aggregator einen Teil des Informationsbedürfnisses befriedigt hat.

Untersagt man aber mit dem REP bereits das Crawlen und Indexieren (wofür es geschaffen ist), so hat dies schwerwiegende Konsequenzen, die eigentlich nicht beabsichtigt sind. Wie Google an anderer Stelle selbst zu bedenken gab: "If content isn't indexed it can't be searched. And if it can't be searched, how can it be found?"42 "If you are not found, the rest cannot follow".43 Für die von Verlegern grundsätzlich befürwortete Suchfunktion ist die Anzeige von Textauszügen auch nicht erforderlich. Dafür würde die Anzeige reiner URL-Links genügen.

Viele Differenzierungen, die für Verleger wichtig wären, lässt das REP nicht zu:

b) Keine Differenzierung innerhalb einer Webseite

Das kleinste Objekt, das nach dem REP "abgemeldet" werden kann, ist eine ganze Webseite (web page). Es ist nicht möglich, einen Artikel zu sperren, aber einen anderen auf derselben Webseite nicht. Eine solche Differenzierung ließe allenfalls das sog. class="robot-nocontent"44 Attribut zu, das aber nur von Yahoo! unterstützt wird. Google lehnt es ab. Und selbst dieses Attribut schließt es aus, dass die gesperrten Inhalte noch bei der Berechnung des Rankings und der Relevanz der Website für eine Suchanfrage berücksichtigt werden. Eine Differenzierung nach Inhalten (statt Webseiten) ist aber gerade für Presseportale elementar, auf deren Seiten - nicht nur der Homepage - täglich zahlreiche Artikel auch neben- oder untereinander eingeblendet werden. Die Artikel müssen flexibel austauschbar sein, ohne jeweils auch die robots.txt neu programmieren zu müssen. Von Verlegern kann auch nicht erwartet werden, ihren tradierten und von Usern geschätzten Aufbau nach Rubriken aufzugeben und stattdessen leserunfreundlich für jeden Artikel eine eigene Webseite zu errichten, nur um das REP nutzen zu können. Das würde auch eine Werbevermarktung der Artikel erschweren. Webseiten mit vielen Nachrichten unter- oder nebeneinander sind für Werbetreibende interessanter, da User hier typischerweise die ganze Seite einschließlich der Werbung optisch wahrnehmen. Bannerwerbung auf reinen Artikel-Seiten hat einen bedeutend geringeren Werbewert.45

c) Keine Differenzierung zwischen Diensten, die ein Robot speist

Der kleinste Adressat, der über das REP angesprochen und dessen Nutzung einer Webseite beschränkt werden kann, sind die Robots der einzelnen Aggregatoren. Davon gibt es Tausende. Die meisten Aggregatoren benutzen jeweils nur einen Robot. Einige große Anbieter nutzen demgegenüber neben einem allgemeinen Robot (z. B. "Googlebot") auch auf spezielle Inhalte fokussierte Robots (z. B. "Googlebot-news" für Nachrichten). Will man nur bestimmten Aggregatoren den Zugriff verbieten, z. B. weil sie Konkurrenzportale betreiben, muss man diese einzeln in seine robots.txt aufnehmen und die Liste ständig aktualisieren. Bei vielen Webseiten und ständig hinzukommenden Robots ist dies mit einem erheblichen Marktüberwachungsaufwand verbunden.46 Erschwerend kommt hinzu, dass SEO-Experten davor warnen, bei der robots.txt-Programmierung zwischen Robots zu variieren, da das Ranking hierunter leiden könnte.47

Noch problematischer ist, dass derselbe Robot eines Aggregators häufig verschiedene Dienste speist, die die Interessen der Presseverleger unterschiedlich stark berühren. Website-Betreiber können jedoch über das REP nur einen Robot insgesamt steuern, nicht welche Dienste dieser mit den von ihm indexierten Informationen "füttert". Es ist also z. B. nicht möglich, einem bestimmten Dienst, der von einem Robot gespeist wird, die Einblendung von Snippets zu untersagen, aber gleichzeitig Snippets in anderen Diens-Jahr: 2013 Heft: 2 Seite: 79 ten desselben Aggregators zu gestatten. Wenn der eine Dienst direkte Konkurrenz macht, der andere aber nicht, kann es aber ein berechtigtes Interesse hierfür geben. Einige Beispiele:

Bing nutzt seinen Robot (Bingbot) für so unterschiedliche Dienste wie die allgemeine Bing Web Search, Bing News und Bing Bilder. Mangels eines separaten Robots kann Bing News derzeit nicht über das REP isoliert blockiert werden. Nach der Kooperation von Bing mit Yahoo! ist auch unklar, wann der Yahoo!-Crawler Slurp und wann der Bingbot crawlt, z. B. für Yahoo! News.48

Google hat - auch auf kartellrechtlichen Druck hin - Ende 2009 mit dem "googlebot-news" einen separaten Robot für Google News eingeführt, der isoliert blockiert werden kann. Was jedoch oft übersehen wird: Der Googlebot-News füttert auch die speziellen "News zu"-Ergebnisblöcke in der allgemeinen Websuche, mit der Folge: Wer den Googlebot-News sperrt (mittels <User-agent: googlebot-news Disallow:/&rt; in der robots.txt oder <meta name="googlebot-news" content="noindex"/&rt; im HTML-Header), erscheint auch nicht mehr in News-Universals.49 Dies kann sich jedoch kein Presseportal erlauben. Von Google bei Nachrichtenanfragen immer häufiger auf der ersten Seite eingeblendete News-Universals enthalten aus User-Sicht die wichtigsten Nachrichten. Andere Nachrichtenergebnisse werden kaum wahrgenommen. Es ist daher offensichtlich, dass der Großteil der "Hälfte des Traffic", den deutsche Verlagsseiten nach Googles Angaben von Google.de erhalten,50 über News-Universals kommt. Nun erhalten Verlage über Google.de aber circa doppelt so viel Traffic wie über Google News. Dann ist die Option zur isolierten Blockade von Google News, um sich vor einer Leistungsübernahme im intermedialen Wettbewerb gegen Google zu schützen, eine Farce. Denn nicht mehr in News-Universals auf Google.de zu erscheinen würde einen Verlag im intramedialen Wettbewerb mit anderen Presseportalen bedeutend stärker schädigen, als es der Wettbewerb mit Google News tut. Im Ergebnis "bestraft" Google die isolierte Sperre des Googlebot-News mit einer schlechteren Darstellung der gesperrten Webseite auch auf Google.de.

Neben den News-Universals speist - soweit bekannt - der Googlebot-News auch den Google Alert-Dienst51 und den Google News-Ticker auf der Startseitenversion iGoogle.52 Damit können auch diese Dienste nicht isoliert blockiert werden. Noch mehr Unsicherheit entstand als Google im August 2011 verkündete,53 Google News crawle zukünftig mit dem allgemeinen Googlebot statt mit dem Googlebot-News. Ohne zu wissen, welcher Robot nun in welchem Umfang welchen Dienst füttert, kann man aber nicht sinnvoll über das REP zwischen Diensten differenzieren.

d) Keine Differenzierung zwischen Aggregatoren, die ein Robot speist

Das REP ermöglicht auch keine Differenzierung zwischen den eigenen Diensten einer Suchmaschine und denen von Partnern, die auf den Index der Maschine zurückgreifen. Google und Bing/Yahoo! liefern Suchergebnisse für zahlreiche in Browsern und Websites anderer Portale eingebettete Suchfunktionen mit unterschiedlichsten Geschäftsmodellen. Der Googlebot speist beispielsweise die Suchen von Web.de, AOL und T-Online. Facebook, Firefox und Twitter greifen auf Robots von Bing und Yahoo! zurück. Folge ist: Wer seine Inhalte gegenüber dem Robot einer Suchmaschine sperrt, wird auch auf den Suchdiensten von deren Partnerwebseiten nicht gefunden, gegen deren Nutzung man aber ggf. nichts einzuwenden hat - oder umgekehrt.

e) Keine Differenzierung zwischen verschiedenen Nutzungshandlungen

Über Robot Meta-Tags kann man Suchmaschinen bestimmte Aktionen verbieten. "Jedes System [= jeder Suchdienst] verarbeitet nur die [ihm] jeweils bekannten Meta-Tags und ignoriert die unbekannten Tags."54 Seit 2008 lesen Google, Bing und Yahoo! folgende Vorgaben: noindex, nofollow, nosnippet, noodp, noarchive, unavailable_after, noimageindex.55 Viele andere Aktionen können jedoch nicht separat untersagt werden. So gibt es derzeit keine isolierten Meta-Tags gegen die Anzeige von Previews (ohne auch Snippets zu sperren), die Speicherung oder die Kombination von Inhalten mit anderen Werken (z. B. Fotos von anderen Seiten) oder die Kommunikation sonstiger Nutzungsbedingungen (zulässige Länge von Snippets, Zeitraum der Anzeige und Speicherung von Inhalten, Lizenzgebühr für Textkopien etc.).

Im Ergebnis reflektiert das REP nicht die Komplexität, in der Aggregatoren heute Inhalte kopieren und in verschiedensten Diensten nutzen. Ein Microsoft-Manager fasste dies einmal treffend zusammen: "[W]eb sites currently are forced to communicate with search engines using robots.txt, a technical protocol developed 15 years ago without any understanding of how the business needs of newspapers and other web publishers would develop. Using that 1993-era technology to run today's websites is like putting a Fiat engine in a Ferrari."56

4. Aber: Technische Lösungen jenseits des Robot Exclusion-Protokolls

Es kursieren zahlreiche kreative Vorschläge, wie sich die Differenzierungsinteressen der Verleger angeblich auch auf Basis des REP oder jenseits von robots.txt und Robot Meta-Tags befriedigen ließen. Einige Ideen drehen sich um eine Kombination, Modifizierung oder zeitlich gestufte Abfolge von Befehlen des REP. Andere suggerieren Hilfe durch den Einsatz semantischer Metadaten. Wieder andere verweisen auf Möglichkeiten für die maschinenlesbare Kommunikation von Nutzungsrechten, z. B. durch RightsML, die Creative Commons Rights Expression Language (ccREL) oder W3C-Lizenzen.

a) ... werden nicht anerkannt

Die meisten dieser Lösungen scheitern bereits daran, dass Aggregatoren nur das lesen, was sie lesen wollen. Mangels jeder Verpflichtung oder Regulierung beachten Suchmaschinen nur solche Metadaten, die ihre semantische Su-Jahr: 2013 Heft: 2 Seite: 80 che57 verbessern. So lesen Google, Bing und Yahoo! über die von ihnen gegründete Initiative schema.org zwar auch zahlreiche Metadaten über Nachrichtenartikel aus.58 Daten über den urheberrechtlichen Schutz von Artikeln und Nutzungsbedingungen werden aber ignoriert. Google liest z. B. keine Metadaten maschinenlesbarer Standards zur Kommunikation gewerblicher Nutzungsrechte wie die des Automated Content Access Protocol (ACAP) und des neueren Standards RightsML.

b) ... sind noch aufwändiger

Selbst wenn Aggregatoren an sie gerichtete Befehle über das REP hinaus beachten würden, bliebe das Problem der Komplexität. Schon die derzeitige Kommunikation über die robots.txt und Robot Meta-Tags ist fehleranfällig. Bis auf die Aggregatoren selbst weiß niemand genau, welche Folgen eine Sperre auf das eigene Ranking und die Entwicklung des Traffic hat (s. unter VII.). Das hohe Risiko folgenschwerer Fehleingaben ist ein Grund für die geringe Nutzung des REP. Jeder zusätzliche Kommunikationsweg (z. B. über class="robots-nocontent"-Attribute) würde das Risiko weiter erhöhen. Dies liegt auch daran, dass strategische Entscheidungen über Nutzungsrechte typischerweise nicht bei den Webmastern liegen, die diese Entscheidungen technisch umsetzen müssen. Jedenfalls würde die Feinabstimmung Mehraufwand bereiten. Das ist aber den Berechtigten nicht zuzumuten: Weder offline noch online überzeugt es, die Gewährung eines Schutzrechts für eine besondere Leistung zu versagen, nur weil es der Berechtigte versäumt hat, alle theoretisch zur Verfügung stehenden und mehr oder weniger aufwändigen Maßnahmen gegen die Ausbeutung seiner Leistung durch Dritte getroffen zu haben.59 Auch Software- und Filmhersteller sind trotz effektiven technischen Kopierschutzes urheberrechtlich geschützt.

c) ... und lösen das Problem nicht

Selbst eine ausgefeiltere maschinenlesbare Kommunikation von Nutzungsrechten könnte nicht die zugrunde liegenden Rechte ersetzen. Mit dem Leistungsschutzrecht geht es Presseverlegern nicht darum, technisch den zulässigen Umfang der Nutzung ihrer Werke ausdrücken zu können. Das Gesetz soll überhaupt erst ein eigenes, von den Urhebern der Werke weitgehend unabhängig durchsetzbares Verfügungsrecht schaffen. Ein solches Recht bringt Verleger erst in die Lage, Marktpreise für die Weiterverwertung von Presseprodukten durch Aggregatoren individuell auszuhandeln.60 Neue technische Lösungen einer Rechtekommunikation wären insoweit zwar zu begrüßen; ersetzen können sie ein Leistungsschutzrecht aber nicht.

Zudem verbliebe auch bei feinstufigeren Systemen zur Sperrung von Inhalten das unter 2. beschriebene Risiko einer Abstrafung im von den Aggregatoren gesteuerten intramedialen Wettbewerb, indem Sperrungen mit einem schlechteren Ranking bestraft werden. Solange diese Sanktion droht, werden Verlage keine Sperre riskieren.

VIII. Zur Behauptung, Google unterstütze Presseverlage bei der Vermarktung

"Google unterstützt Presseverlage auf der ganzen Welt, ihre Onlineseiten zu vermarkten. Alleine aus unserem Werbedienst AdSense haben wir 2011 fast 7 Milliarden US-Dollar an unsere Publishing-Partner, darunter auch zahlreiche Presseverleger, ausgeschüttet."

Die Fakten sprechen eine andere Sprache. Mit AdSense, der Vermittlung von Werbeanzeigen für nicht-Google-eigene Webseiten, verdiente Google 2011 über 10 Milliarden US-Dollar; mehr als an alle Website-Betreiber zusammen ausgeschüttet wurde.61 An deren "Unterstützung" verdiente Google also selbst am besten. Mit redaktionsähnlich präsentierten Diensten, wie Google News, iGoogle, Google Currents, Google Alerts oder Google Reader, macht Google Verlagswebseiten direkte Konkurrenz. Eine Option, sich zumindest theoretisch gegen Google News zu wehren, ohne automatisch auch aus der Websuche zu fallen, hat Google erst 2009 angesichts drohender Kartellrechtssanktionen eingeräumt. Maschinenlesbare Standards für die Einräumung von Rechten, wie z. B. ACAP, die es Verlegern ermöglichen würden, detailliertere Bedingungen für die Nutzung ihrer Inhalte zu kommunizieren und so - wie es in der Offline-Welt gang und gäbe ist - einen Markt für digitale Inhalte zu schaffen, lehnt Google im Gegensatz zu Bing ab. Angeblich reiche die robots.txt für die Interessen der Verleger aus.62 Und als belgische Verleger eine Urheberrechtsklage gegen Google News gewannen, nahm Google einfach alle Kläger aus dem Index - und zwar auch aus dem der Google Websuche, obwohl das Gericht klar zwischen beiden unterschied.63 Eine "Unterstützung" auf der ganzen Welt sieht anders aus.

IX. Zur Behauptung, es werde schwieriger, Informationen zu finden

Google behauptet in seiner Kampagne: "Das Gesetz macht es deutlich schwieriger, die im Internet verfügbaren Inhalte aufzufinden." Ähnlich meint das Max-Planck-Institut: "Stattdessen würde auf deutsche Presseprodukte gar nicht mehr verlinkt, jedenfalls nicht unter Verwendung von Snippets, die für effiziente Internetrecherchen jedoch elementar sind [.] [[I]nternational tätige Suchmaschinenbetreiber [müssten] den Zugriff aus Deutschland technisch blockieren - deutsche Nutzer also benachteiligen. [.] Sollten Betreiber [.] nicht mehr auf deutsche Presseinhalte verlinken, wären diese generell nicht mehr zu finden".64

Tatsächlich gehen diese Befürchtungen an den bestehenden Rahmenbedingungen vorbei. Aggregatoren können auch nach Erlass des Leistungsschutzrechtes auf Verlagsseiten verlinken.65 Links aus URL und Ankertext in Suchergebnissen greifen nicht in das Verfügungsrecht der Presseverleger ein. Verlegerseiten können damit weiterhin gecrawlt, indexiert und Usern bei einer Suchanfrage durch einen Link zugänglich gemacht werden. Eine Nichtauffindbarkeit von Presseprodukten würde demgegenüber die vom Gesetz nicht geforderte Entscheidung einer Suchmaschine voraussetzen, keine Links mehr zu Presseportalen in Suchergebnisse aufzunehmen. Dies wäre aber eine freie Entscheidung der Suchmaschine und nicht den Presseverlegern anzulasten.

Jahr: 2013 Heft: 2 Seite: 81

Dass Aggregatoren nicht mehr auf Verlagsseiten verlinken würden, ist auch nicht sehr wahrscheinlich. Wenn es eine Nachfrage nach journalistischen Beiträgen gibt, was Googles Einwand unterstellt, wird es auch Anbieter geben, die diesen Markt durch eine Kooperation mit Verlegern für sich erschließen. Im Übrigen wird jeder User stets Verlegerseiten direkt aufrufen und über die dortigen Suchfunktionen Inhalte auffinden können. Das Interesse der User, Informationen nicht nur auf den Seiten der Presseverlage, sondern auch auf allen Plattformen kostenlos zu finden, die diese Inhalte schlicht kopieren, ist nicht schutzwürdig; jedenfalls nicht, wenn dadurch der wirtschaftliche Anreiz für die Verleger entfällt, solche Inhalte überhaupt erst ins Netz zu stellen.66

Alle derzeit diskutierten Alternativen zum Leistungsschutzrecht würden das Interesse der User stärker beeinträchtigen. Google schlägt Verlagen vor, sich "mit einem Textcode (robots.txt) auf der eigenen Homepage 'abzumelden' ". Dann wären ihre Webseiten nicht einmal mehr als Link von Usern in Aggregatoren auffindbar (s. oben unter VII. 3. a)). Ein Festhalten am Status Quo zwingt demgegenüber immer mehr Presseverleger, sich aus dem Onlinegeschäft zurückzuziehen oder Bezahlmodelle mit Pay-Walls einzuführen, um ihre Kosten zu amortisieren. Daran können User auch kein starkes Interesse haben.

Google instrumentalisiert hier das verständliche Interesse der User an einem für sie kostenlosen Zugang zu im Netz verfügbaren Inhalten. Es wäre aber ein Fehler, dieses Interesse mit dem der Allgemeinheit gleichzusetzen. Denn zunächst müssen erst einmal Inhalte in einer Form ins Netz gestellt werden, dass sich eine Suche danach lohnt. Das setzt den Schutz entsprechender Investitionen voraus. Dies ist wiederum eine klassische Funktion des Urheberrechts und damit legitimes Ziel eines Leistungsschutzrechts für Presseverleger.

X. Zur Behauptung, das Gesetz gefährde die Informationsvielfalt

Google behauptet: "Statt über Artikel deutscher Medien werden sich viele Nutzer künftig über Quellen aus anderen Ländern informieren, deutsche Positionen und Meinungen werden im Netz weniger sichtbar."

Die Aussage unterstellt, dass Aggregatoren nach Erlass des Gesetzes nachrichtenbezogene Suchanfragen nicht mehr mit Links zu deutschen Verlagsseiten beantworten, sondern nur noch Links zu ausländischen Portalen einblenden. Das würde aber bedeuten, dass der Aggregator seinen Usern bewusst die für sie relevantesten Inhalte vorenthält und ihnen stattdessen für seine Anfrage weniger relevante Ergebnisse anzeigt, nur um eine gesetzliche Verpflichtung zu umgehen, die - bezogen auf weiterhin zulässige Verlinkungen - noch nicht einmal besteht. Damit ist nicht zu rechnen.

Usern, denen ein Aggregator weniger deutsche Presseverleger anzeigt, steht es frei, mit einem Klick einen anderen Aggregator zu wählen, bei dem die Userinteressen an erster Stelle stehen. Die Relevanz von User-Traffic stellt sicher, dass es immer Aggregatoren geben wird, die nicht - wie es Google in Aussicht stellt - die Nachfrage der User nach frei zugänglichen Presseinformationen ignorieren, sondern versuchen werden, diese Nachfrage zusammen mit den deutschen Verlegern optimal zu befriedigen.

XI. Zur Behauptung, nur große Verlagsangebote würden profitieren

Google behauptet: "Wenn überhaupt werden nur große, 'klickstarke' Verlagsangebote von einem solchen Gesetz profitieren, kleine Verleger dagegen werden Reichweite und Aufmerksamkeit verlieren".

Träfe dies zu, bestünde ein unauflösbarer Widerspruch zu Googles Aussage an anderer Stelle, " 'Klicks' sind die Währung des Internets" (s. unter II.). Sind Klicks die Währung des Internets, müssen doch die "klickstarken Verlagsangebote" am meisten vom Status Quo profitieren, während kleine Verleger am wenigsten von der Währung abbekommen. Wenn dem so ist, kann das Leistungsschutzrecht die Position kleiner Verleger lediglich verbessern. Dafür sprechen auch verhandlungsökonomische Grundsätze. Kleine Verleger haben eine geringere Verhandlungsmacht als größere. Sind in Ermangelung eines Leistungsschutzrechts alle Verleger auf bipolare Verhandlungen mit Aggregatoren angewiesen, sind kleinere Verleger im Nachteil. Das Leistungsschutzrecht nützt demgegenüber allen Verlegern gleichermaßen. Eine Verwertungsgesellschaft unterstellt, schützt das Gesetz Verleger insbesondere davor, von Aggregatoren untereinander ausgespielt zu werden, nach dem Motto: Wir ranken den am besten, der uns die meisten Inhalte schenkt (s. unter VII. 2.). Dadurch wird die Neutralität von Suchergebnissen gewahrt und die Presse- und Meinungsvielfalt insgesamt gestärkt.

XII. Zur Behauptung, ein Leistungsschutzrecht schade den Urhebern

Google behauptet: "Ein Leistungsschutzrecht schadet im Übrigen den Urhebern. Deshalb wird es unter anderem vom Berufsverband freier Journalistinnen und Journalisten sowie kleinen Verlagen abgelehnt."

Tatsächlich scheint das Gegenteil der Fall: Der Schutz der Presseverleger vor einer Ausbeutung ihrer Leistungen ist eine wesentliche Voraussetzung für die Finanzierbarkeit von Presse und damit auch von Journalisten/innen.

Ein Leistungsschutzrecht schafft ein eigenes Verfügungsrecht für Presseverleger. Diese sind für die - auch gerichtliche - Verteidigung journalistischer Leistungen vor einem systematischen Kopieren nicht mehr auf die Einräumung umfassender Nutzungsrechte durch die Urheber der Werke in Form von Total-Buy-Out-Verträgen angewiesen. Davon würden langfristig auch die Journalisten/innen profitieren. Im Übrigen sind die Urheber nach § 87 h des Gesetzesentwurfs angemessen an der Vergütung zu beteiligen.

Die Zurückhaltung einiger kleiner Verlage hat mit dieser Frage hingegen nichts zu tun. Sie beruht oft auf ihrer höheren Abhängigkeit von Suchdiensten wie Google. Zu vielen nur regional bekannten Verlagen gelangt der Großteil der User über Aggregatoren. Diese Portale sind oft so sehr auf den intramedialen Wettbewerb mit anderen Presseportalen um ein paar zusätzliche Klicks fokussiert, dass sie die Ausbeutung ihrer gesamten Branche im intermedialen Wettbewerb mit Aggregatoren aus dem Blick verlieren oder ihm eine - für sie individuell - untergeordnete Bedeutung beimessen. Dies überrascht auch nicht, sondern ist Ergebnis des durch Aggregatoren geschürten "Rattenrennens" um den größten Teil des von ihnen noch durchgelassenen Traffics (s. unter VII. 2.)

Jahr: 2013 Heft: 2 Seite: 82 XIII. Ergebnis

Das ökonomische Verhältnis von Suchmaschinen und anderen Aggregatoren zu Presseverlagen ist höchst komplex. Mangels jeder Regulierung ist die genaue Funktionsweise vieler Aggregatoren intransparent. Dies trifft nicht nur auf die Kriterien für das Ranking und die Darstellung von Webseiten zu. Auch die Auswirkungen der Art und Weise, wie Suchergebnisse eingeblendet werden, auf das Klickverhalten und die Folgen von Maßnahmen der Websitebetreiber auf ihr Ranking sind letztlich nur den einzelnen Aggregatoren selbst bekannt und von ihnen steuerbar. Aggregatoren haben ein ökonomisches Interesse, diese Informationsasymmetrie zur Beeinflussung von Entscheidungsträgern einzusetzen. Diesem Anreiz unterlag auch Google in seiner Kampagne "Verteidige Dein Netz!". Weder die dort genannten "Fakten" noch die "Folgen" geben das ganze Bild zutreffend wieder. Es wäre zu bedauern, wenn weitere Rechtsakte durch diese Informationsasymmetrie zum Nachteil der Allgemeinheit beeinflusst würden. Unabhängig vom diskutierten Leistungsschutzrecht verbleibt daher ein Appell: Verteidige Dein Netz! - gegen weitere Irreführungen durch Monopolisten.

*

Der Autor ist Rechtsanwalt bei Olswang Germany LLP. Er vertritt Mandanten in Beschwerden wegen Missbrauchs von Marktmacht gegen Google vor der Europäischen Kommission. Der Beitrag gibt seine persönliche Meinung wieder. Mehr über den Autor erfahren Sie auf S. VIII.

1

Stellungnahme zum Gesetzesentwurf für eine Ergänzung des Urheberrechtsgesetzes durch ein Leistungsschutzgesetz für Verleger, v. 27. 11. 2012.

2

Zu dieser Strategie von Googles Rechtsabteilung vgl. The New York Times, v. 23. 10. 2006, http://www.nytimes.com/2006/10/23/technology/23google.html?pagewanted=all ("We're Google. So Sue Us.") "Google's lawyers are working to establish a body of legal interpretation that favors the company".

3

Ein aktuelles Beispiel liefert BGH, 19. 10. 2011 - I ZR 69/08, K&R 2010, 501 ff. = WRP 2012, 721 ff. - Vorschaubilder II, dessen Begründung durch die Bank kritisiert wird - auch von Unterzeichnern der MPI-Stellungnahme, vgl. Spindler, MMR 2012, 383, 386 ff.; Ohly, GRUR 2012, 983, 988 m. w. N. in Fn. 66.

4

MPI-Stellungnahme (Fn. 1) S. 3.

5

Vgl. die Ergebnisse der Eye-Tracking Studie des Stanford-Poytner Instituts, http://contentmarketingpedia.com/Marketing-Library/Content%20VS%20Ads/WebPageEyeTrackingStudy.pdf.

6

Vgl. Stanford-Poytner-Studie (Fn. 5).

7

Outsell Report, http://www.outsellinc.com/press/press_releases/news_users_2009 ("Nearly Half of News Users Bypass Newspaper Sites in Favor of Google").

8

Vgl. Stanford-Poytner-Studie (Fn. 5) "More than three times as many briefs as articles were called up"; Russ, in: Der Standard v. 7. 5. 2010, http://derstandard.at ("Verleger Russ sieht 'Schmarotzertum bei Google' ") - 80 %.

9

La cour d'appel de Bruxelles v. 5. 5. 2011 - R.G. 2007 AR 1730 - Google/Copiepresse.

10

La cour d'appel de Bruxelles v. 5. 5. 2011 - R.G. 2007 AR 1730, Rn. 28, 32, 55 - Google/Copiepresse.

11

Outsell Report (Fn. 7).

12

Die Begünstigung eigener Dienste ist einer von vier von der Europäischen Kommission identifizierten Missbräuche von Marktmacht i. S. v. Art. 102 AEUV, vgl. Almunia, SPEECH/12/372 v. 21. 5. 2012.

13

BGH, 17. 7. 2003 - I ZR 259/00, WRP 2003, 1341, 1344 = K&R 2003, 554 ff.

14

BGH, 17. 7. 2003 - I ZR 259/00, WRP 2003, 1345, 1344 = K&R 2003, 554 ff.

15

BGH, 17. 7. 2003 - I ZR 259/00, WRP 2003, 1345, 1347 = K&R 2003, 554 ff.

16

S. Outsell-Report (Fn. 7).

17

MPI-Stellungnahme (Fn. 1), S. 3.

18

Vgl. Ask.com gab 2010 seine Suchtechnologie auf. Zu den Verflechtungen der übrigen Suchdienste s.: http://www.luna-park.de/blog/2287-suchmaschinen-beziehungsgeflecht/.

19

Vgl. Interview mit Unternehmenssprecher R. Bremer, in: Biermann, Zeit Online, v. 29. 8. 2012, http://www.zeit.de/digital/internet/2012-08/Leistungsschutzrecht-kabinett/seite-2 ("Leistungsschutzrecht zielt auf Google, ohne zu treffen").

20

TRG, http://www.trg.de/fileadmin/user_upload/Presse/Veroeffentlichungen/TRG_Presseverleger_und_Google__Zahlen_zum_Leistungsschutzrecht_201208.pdf.

21

Gesetzesentwurf der Bundesregierung, BT-Drs. 17/11470, S. 6.

22

Rubin, Microsoft News Center, v. 20. 11. 2008, http://www.microsoft.com/en-us/news/exec/trubin/11-20-08copyright.aspx ("The Change We Need").

23

Vgl. Barclays Capital Inc. v. Theflyonthewall.com (SDNY March 18, 2010).

24

CNN Money, v. 22. 7. 2008, http://tech.fortune.cnn.com/2008/07/22/whats-google-news-worth-100-million/ ("What's Google News worth? $ 100 million").

25

Näher hierzu Höppner, WRP 2012, 625, 626 f.

26

Vgl. Anderson/Gabszewicz in: Ginsburgh/Throsby, Handbook of the Economics of Art and Culture, 2006, 567, 571, 586.

27

Nach Google-Richtlinien ist der Umfang der Werbung ein wesentlicher Qualitätsfaktor einer Website, vgl. Webmaster Central Blog, v. 6. 5. 2011, http://googlewebmastercentral.blogspot.co.uk/2011/05/more-guidance-on-building-high-quality.html ("More guidance on building high quality sites").

28

MPI-Stellungnahme (Fn. 1), S. 2.

29

Vgl. Kreutzer, v. 6. 8. 2012, http://irights.info/?q=node/2256, Punkt 2 ("Sieben Thesen zum Leistungsschutzrecht"); Ott, K&R 2012, 556, 563; Wimmers, CR 2012, 663, 666; Ohly, WRP 2012, 41, 47.

30

Vgl. Distil Blog, v. 18. 7. 2012, http://www.distil.it/the-dirty-secrets-about-robot-txt/ ("The Dirty Secret About Robots.txt") "There's a whole other set of bots that will never even look at those robots.txt rules and just burn right through your website stealing your content, data, user info, etc".

31

Zittrain in The New York Times (Fn. 2).

32

Howe, http://www.shayhowe.com/seo/how-domains-relate-to-seo/ ("How Domains Relate to SEO"); Spencer, http://searchengineland.com/a-deeper-look-at-robotstxt-17573 ("A Deeper Look at Robots.txt") "a high ranking is pretty unlikely since Google can't 'see' the page content".

33

Webconfs, http://www.webconfs.com/15-minute-seo.php ("List of Best and Worst practices for designing a high traffic website").

34

Der von Google eingesetzte PageRank dient der Bewertung von Seiten anhand deren Verlinkungsstruktur.

35

WebSeo Analytics, http://www.webseoanalytics.com/blog/robotstxt-metarobots-relnofollow-the-impact-on-seo/ ("The robots.txt, META-robots & rel=nofollow and their impact on SEO").

36

Vgl. Google Webmaster Central Blog (Fn. 27).

37

Google Webmaster-Tools, http://support.google.com/webmasters/bin/answer.py?hl=de&answer=66361.

38

Google Webmaster Central Blog (Fn. 27).

39

Google Webmaster Central Blog (Fn. 27).

40

Näher hierzu Höppner, WRP 2012, 625, 628.

41

S. oben unter II. 1.

42

Google Official Blog, v. 27. 9. 2006, http://googleblog.blogspot.de/2006/09/our-approach-to-content.html#!/2006/09/our-approach-to-content.html ("Our approach to content").

43

S.de la Mora, Google head of printing partnerships in: The New York Times, v. 23. 8. 2009, http://www.nytimes.com/2009/08/24/technology/internet/24books.html?_r=2& ("European Opposition Mounts Against Google's Selling Digitized Books").

44

Yahoo! Search Blog, v. 2. 5. 2007, .http://www.ysearchblog.com/2007/05/02/introducing-robots-nocontent-for-page-sections/ ("Introducing Robots-Nocontent for Page Sections").

45

Vgl. Owens, http://howardowens.com/2009/03/01/why-home-page-ads-may-be-more-valuable-story-page-ads/ ("Why home page ads may be more valuable than story page ads") "Banner ads on story pages are a waste".

46

Vgl. Wielsch, GRUR 2011, 665, 670; Conrad, ZUM 2010, 585, 587; Höppner, WRP 2012, 625, 634.

47

Vgl. SearchTools.com, http://www.searchtools.com/robots/robots-meta.html ("The Robots META Tag Values") "In general, it's better to use the same directives for all robots. While it's possible to include several lines with several robot crawler User-agent names, that might be an indicator of the bad kind of search cloaking (hiding the real page text from the search engine)".

48

Vgl. @-web Suchmaschinen Blog, v. 13. 9. 2010, http://www.at-web.de/blog/20100913/bingbot-ab-1-oktober-2010.htm ("Vorbereitet für den Bingbot?").

49

Google Webmaster Central, v. 2. 12. 2009, http://googlewebmastercentral.blogspot.de/2009/12/new-user-agent-for-news.html ("New User Agent for News"), "Since Google News powers Universal 'News' search results, if you block the Googlebot-News user agent then your site's news stories won't be included in Universal search results".

50

Siehe Zitat oben unter III.

51

http://www.google.de/alerts?hl=de.

52

http://www.google.de/ig.

53

Google Webmaster Central Blog, v. 25. 8. 2011, http://googlenewsblog.blogspot.de/2011/08/google-news-now-crawling-with-googlebot.html ("Google News now crawling with Googlebot").

54

Google Webmaster-Tools, http://support.google.com/webmasters/bin/answer.py?hl=de&answer=79812 ("Websiteverwaltung - Meta-Tags").

55

Google Webmaster-Tools (Fn. 54).

56

Rubin (Fn. 22).

57

Die semantische Suche versucht, aus dem Zusammenhang die Bedeutung einer Frage zu erschließen und möglichst direkt zu beantworten.

58

Vgl. http://schema.org/NewsArticle.

59

So auch La cour d'appel de Bruxelles, 5. 5. 2011, R.G. 2007 AR 1730, Rn. 50 - Google/Copiepresse.

60

Fiedler, Focus Online, v. 1. 12. 2012, http://www.focus.de/finanzen/news/zeitschriftenverleger-schlagen-alarm-wie-google-seine-nutzer-in-die-irre-fuehrt_aid_872666.html ("Wie Google seine Nutzer in die Irre führt").

61

http://investor.google.com/financial/tables.html.

62

Zu den Defiziten des REP s. oben unter VII.

63

S. La cour d'appel de Bruxelles, 5. 5. 2011, R.G. 2007 AR 1730, Rn. 60 - Google/Copiepresse.

64

MPI-Stellungnahme (Fn. 1) S. 5 f.

65

Gesetzesentwurf der Bundesregierung, BT-Drs. 17/11470, S. 6.

66

Vgl. Ensthaler/Blanz, GRUR 2012, 1104, 1107.

// Hinweise