gefährlich

Editorial: Verbot für Hyperlinks?

Urteile gegen News-Suchmaschinen
Von

Ohne Hyperlinks gäbe es das World Wide Web nicht. Ohne Hyperlinks hätten Sie zum Beispiel diese News kaum lesen können, denn von unserer Homepage oder News-Übersicht aus hätte es keinen bequemen Weg gegeben, um direkt auf diese News zu kommen. Stattdessen hätten Sie URLs tippen oder irgendeine andere Navigation verwenden müssen.

So stimmt es bedenklich, wenn es in jüngster Zeit zwei Urteile gab, die Hyperlinks verbieten. Eines davon erging gegen die News-Suchmaschine Newsclub [Link entfernt] in Deutschland, das andere gegen Newsbooster [Link entfernt] in Dänemark.

Beide Sites sind Nachrichten-Suchmaschinen, die regelmäßig andere Sites nach neuen Nachrichten scannen, und daraus einen Index aller verfügbaren Nachrichten zusammenstellen. Klickt man auf eine der Titelzeilen aus diesem Index, wird man direkt auf die jeweilige Original-Nachrichtenseite geleitet.

Dieses stört einige Anbieter von Nachrichten-Sites im Internet. Denn der Leser, der über Newsclub oder Newsbooster geht, klickt in der Regel nicht mehr auf die Index-Seiten der Nachrichten-Sites, sondern stattdessen auf die Index-Seiten von Newsclub/Newsbooster. Auf diesem Weg gehen den einzelnen Nachrichten-Sites Seitenaufrufe verloren. Hart ausgedrückt heißt das, dass die News-Übersichts-Sites letztendlich Traffic von den einzelnen Nachrichten-Sites stehlen.

Andererseits gilt diese Überlegung für jede Suchmaschine. Gäbe es google, Altavista & Co. nicht, wäre jede Websuche eine Qual. Statt an einer zentralen Stelle seine Anfrage einzugeben, müsste man sich durch zig Websites quälen, bis man eine gefunden hat, die zu der gestellten Frage eine Antwort parat hat. Ein solch benutzerunfreundliches Internet hätte mit Sicherheit nicht die Verbreitung gefunden, die das Internet heute hat.

Auf der anderen Seite stehen die Copyright-Gesetze. Wer Inhalte im Web veröffentlicht, sollte auch ein Recht haben, zu entscheiden, was damit passiert. Die Mehrzahl der konventionellen Suchmaschinen hält sich beispielsweise an die Anweisungen in der Datei robots.txt und/oder das Meta-Tag "robots". Damit lassen sich die Suchmaschinen nach Bedarf oder nach dem Wunsch des Site-Eigentümers von einer Site ganz fernhalten oder in ihrem Aktionsradius beschränken.

So lange es einen gesunden Wettbewerb unter Inhalteanbietern gibt, ist es auch kein Problem, wenn sich einige davon den allgemeinen oder den spezialisierten Suchmaschinen verweigern. Im Zweifel freut sich nämlich ein anderer Inhalteanbieter darüber, dass im Index der News-Suchmaschine ein Konkurrent weniger zu finden ist.

Gefährlich wird es aber dann, wenn kartellmäßig eine große Zahl an Inhalteanbietern die Suchmaschinen außen vor lassen. So musste Newsbooster in Dänemark die Links auf 28 Sites entfernen. Bei solchen zentralen Aussperrversuchen sollten die Richter überlegen, ob nicht die grundgesetzlich geschützte Informationsfreiheit mehr wiegt als die Copyright-Bedenken bezüglich der kopierten Headlines.