Wenn die Zeitungsverleger es ernst meinten, könnten sie durch einfache Programmierung jede Suchmaschine von ihrer Homepage verbannen. Wollen sie aber offenbar nicht und deshalb haben sie das sogenannte Leistungsschutzrecht erfunden. Jetzt sollen die Suchmaschinen, wie Google, einfach zur Kasse gebeten werden, wenn sie Nachrichten in ihrem Angebot als Teasertext und Link weiterverbreiten.
Am Mittwoch ist das Leistungsschutzrecht wieder im Bundestag. Es geht um eine Anhörung. Ich hoffe, die Politiker hören wirklich gut zu. Vielleicht fragt ja mal einer von ihnen nach den technischen Möglichkeiten, Suchmaschinen in ihre Schranken zu verweisen – und fragt dann auch noch, weshalb es die Verlage nicht nutzen.
robots.txt kann Suchmaschinen von Internetseiten ausschließen
Jede automatisch durch das Internet gehende Maschine, wie zum Beispiel Google, liest als erstes die Datei robots.txt, die ein Programmierer in dem Bereich anlegt, in dem er seine Internetseiten abspeichert. Dies ist quasi ein weltweiter Standard, der 1994 entwickelt wurde. Google, Microsoft und Yahoo halten sich an diesen Standard.
Die Datei ist ein Text, allerdings ein sehr kurzer. Mit dem Befehl „Disallow: /“ wird die gesamte Seite für Suchmaschinen gesperrt. Wer beispielsweise seine eigentliche Seite auffinden lassen will, aber die selbst geschriebenen Nachrichten nicht weiter verbreitet haben will, kann das auch ganz einfach programmieren. Der Befehl „Disallow: /news/“ beispielsweise sperrt das Fach „news“ für die Suchmaschinen. So lässt sich jeder Bereich einer Webseite einzeln sperren.
Die Verleger hätten es also in der Hand, ihre Seiten gegen den Besuch von unliebsamen Suchmaschinen zu sperren. Sie tun es aber nicht und wollen stattdessen lieber Geld von Google und Co. Nur das sagen sie offiziell nicht.
Weiterführende Informationen
Weitere exzellente Informationen zu diesem Thema gibt es bei Wikipedia.
Einen ausführlichen Kommentar von mir zum Leistungsschutzrecht lässt sich hier nachlesen.