phpbar.de logo

Mailinglisten-Archive

[php] Offline Reader aussperren?

[php] Offline Reader aussperren?

Werner Stuerenburg php_(at)_phpcenter.de
Tue, 3 Jul 2001 17:02:50 +0200


Ich frage mich, ob das sinnvoll ist. Natürlich ist es lästig,
aber grundsätzlich wollen wir doch, daß die Leute unser Angebot
annehmen, schließlich stellen wir es zu diesem Zweck überhaupt
erst ins Netz.

Als ich noch keine Standleitung hatte, war mein erster Griff zum
Sauger, wenn mich etwas wirklich interessiert hat und das Angebot
nicht sofort zu übersehen war, denn sonst hätte ich keinen Spaß
gehabt, weil der Gedanke an die Verbindungskosten ständig im
Hinterkopf saß.

Wir können also annehmen, daß Leute, die einen Sauger ansetzen,
an unserem Angebot wirklich interessiert sind. In der Praxis ist
es allerdings so, daß von den heruntergeladenen Seiten später
vielleicht offline doch nur wenige angeschaut werden. Das ist das
Risiko (für beide Seiten).

Genauso verhält es sich mit Suchmaschinen. Eigentlich möchten
wir, daß unser Angebot in allen Suchmaschinen gefunden wird, und
zwar vollständig. Das wiederum setzt voraus, daß alle
Suchmaschinen unser Angebot ständig überprüfen. Wenn die Seiten
dynamisch erzeugt werden, sind diese theoretisch ständig neu und
müssen vollständig erfaßt werden.

Den Zugriff der Suchmaschinen kann man im Prinzip über die Datei
robots.txt steuern. Ich glaube nicht, daß irgend eine
Suchmaschine diese Datei mißachtet. Man könnte also auf
Verzeichnisebene festlegen, welche Bereiche untersucht werden
sollen.

Außerdem kann man dynamisch erzeugte Seiten aus dem Zugriff
herausnehmen, wenn man die dynamische Steuerung über
GET-Parameter realisiert, weil Suchmaschinen diese Parameter
ausfiltern.

Aber grundsätzlich sehe ich keine echte Lösung. Bei deiner Seite
zum Beispiel würde ein Griechenland Fan alles lesen wollen.
Solange er für die Zeit zahlen muß, greift er zum Sauger, wenn er
clever ist. Dieser Griechenland Fan ist genau der, den du
ansprichst. Den willst du haben. Und den willst du verprellen,
wenn er zum Sauger greift? Das wäre doch extrem selbstschädigend!

Du willst, daß unter allen Griechenland-Freunden deine Seite
bekannt wird. Immer mehr Besucher werden also zum Sauger greifen.

Wenn die deine Seite haben, werden sie nicht mehr wiederkommen,
jedenfalls für eine Weile. Und dann? Deine Seite wird davon
leben, daß du immer wieder neue Inhalte hast. Sie werden
vermutlich nicht mehr zum Sauger greifen, aber selbst wenn: ein
intelligenter Sauger würde alte Dateien nicht noch einmal saugen
- es sei denn, die Seiten sind dynamisch erzeugt.

Frage also: wie kann man den Sauger klarmachen, daß die Seite
sich nicht verändert hat?

Man könnte den Griechenland-Freunden sogar noch entgegenkommen,
indem man ein Zip anbietet. Dadurch würde man die Datenmengen und
-Zeiten etwas begrenzen.

Es gibt nicht beliebig viele Griechenland-Freunde, also kann man
annehmen, daß in dieser Hinsicht ein Sättigungszustand erreicht
wird. Bei Suchmaschinen kann man das nicht annehmen, es sei denn
alle sterben aus bis auf Google. Ich beobachte, daß das Basteln
von Suchmaschinen offenbar auch ein beliebter Sport an
Hochschulen ist. Welchen Schaden Suchmaschinen durch ihren
Verkehr anrichten können, hat wohl noch niemand berechnet.



-- 
Herzlich
Werner Stuerenburg            

_________________________________________________
ISIS Verlag, Teut 3, D-32683 Barntrup-Alverdissen
Tel 0(049) 5224-997 407 · Fax 0(049) 5224-997 409
http://pferdezeitung.de




php::bar PHP Wiki   -   Listenarchive