Mailinglisten-Archive |
Ich frage mich, ob das sinnvoll ist. Natürlich ist es lästig, aber grundsätzlich wollen wir doch, daß die Leute unser Angebot annehmen, schließlich stellen wir es zu diesem Zweck überhaupt erst ins Netz. Als ich noch keine Standleitung hatte, war mein erster Griff zum Sauger, wenn mich etwas wirklich interessiert hat und das Angebot nicht sofort zu übersehen war, denn sonst hätte ich keinen Spaß gehabt, weil der Gedanke an die Verbindungskosten ständig im Hinterkopf saß. Wir können also annehmen, daß Leute, die einen Sauger ansetzen, an unserem Angebot wirklich interessiert sind. In der Praxis ist es allerdings so, daß von den heruntergeladenen Seiten später vielleicht offline doch nur wenige angeschaut werden. Das ist das Risiko (für beide Seiten). Genauso verhält es sich mit Suchmaschinen. Eigentlich möchten wir, daß unser Angebot in allen Suchmaschinen gefunden wird, und zwar vollständig. Das wiederum setzt voraus, daß alle Suchmaschinen unser Angebot ständig überprüfen. Wenn die Seiten dynamisch erzeugt werden, sind diese theoretisch ständig neu und müssen vollständig erfaßt werden. Den Zugriff der Suchmaschinen kann man im Prinzip über die Datei robots.txt steuern. Ich glaube nicht, daß irgend eine Suchmaschine diese Datei mißachtet. Man könnte also auf Verzeichnisebene festlegen, welche Bereiche untersucht werden sollen. Außerdem kann man dynamisch erzeugte Seiten aus dem Zugriff herausnehmen, wenn man die dynamische Steuerung über GET-Parameter realisiert, weil Suchmaschinen diese Parameter ausfiltern. Aber grundsätzlich sehe ich keine echte Lösung. Bei deiner Seite zum Beispiel würde ein Griechenland Fan alles lesen wollen. Solange er für die Zeit zahlen muß, greift er zum Sauger, wenn er clever ist. Dieser Griechenland Fan ist genau der, den du ansprichst. Den willst du haben. Und den willst du verprellen, wenn er zum Sauger greift? Das wäre doch extrem selbstschädigend! Du willst, daß unter allen Griechenland-Freunden deine Seite bekannt wird. Immer mehr Besucher werden also zum Sauger greifen. Wenn die deine Seite haben, werden sie nicht mehr wiederkommen, jedenfalls für eine Weile. Und dann? Deine Seite wird davon leben, daß du immer wieder neue Inhalte hast. Sie werden vermutlich nicht mehr zum Sauger greifen, aber selbst wenn: ein intelligenter Sauger würde alte Dateien nicht noch einmal saugen - es sei denn, die Seiten sind dynamisch erzeugt. Frage also: wie kann man den Sauger klarmachen, daß die Seite sich nicht verändert hat? Man könnte den Griechenland-Freunden sogar noch entgegenkommen, indem man ein Zip anbietet. Dadurch würde man die Datenmengen und -Zeiten etwas begrenzen. Es gibt nicht beliebig viele Griechenland-Freunde, also kann man annehmen, daß in dieser Hinsicht ein Sättigungszustand erreicht wird. Bei Suchmaschinen kann man das nicht annehmen, es sei denn alle sterben aus bis auf Google. Ich beobachte, daß das Basteln von Suchmaschinen offenbar auch ein beliebter Sport an Hochschulen ist. Welchen Schaden Suchmaschinen durch ihren Verkehr anrichten können, hat wohl noch niemand berechnet. -- Herzlich Werner Stuerenburg _________________________________________________ ISIS Verlag, Teut 3, D-32683 Barntrup-Alverdissen Tel 0(049) 5224-997 407 · Fax 0(049) 5224-997 409 http://pferdezeitung.de
php::bar PHP Wiki - Listenarchive