phpbar.de logo

Mailinglisten-Archive

[php] Offline Reader aussperren?

[php] Offline Reader aussperren?

Ralf Eggert php_(at)_phpcenter.de
Tue, 3 Jul 2001 19:16:23 +0100


Hallo Werner,

danke erstmal fuer deinen ausfuehrlichen Kommentar, auch wenn wir jetzt
eventuell ins OT abdriften... ;-)

>Wir koennen also annehmen, dass Leute, die einen Sauger ansetzen,
>an unserem Angebot wirklich interessiert sind. In der Praxis ist
>es allerdings so, dass von den heruntergeladenen Seiten spaeter
>vielleicht offline doch nur wenige angeschaut werden. Das ist das
>Risiko (fuer beide Seiten).

Ich gehe einmal davon aus, dass fast niemand, der die Site komplett
saugt, alles lesen kann oder will. Bei ueber 1.000 Artikeln ueber
Griechenland, derzeit knapp 12.000 Forenbeitraege und ueber 2.300 Fotos
braucht man schon etwas, um das ganze Material zu sichten... ;-)

Ein kompletter Download der Site besteht momentan aus 200 MB Traffic.
Machen das nur 10 Leute im Monat, sind das mal locker 2 GB Traffic, die
die gleichen 10 Leute wahrscheinlich in einem Jahr nicht zusammensurfen
wuerden. Momentan liegen die Seiten noch auf einem Schlund Paket mit 25
GB Traffic inklusive pro Monat. Aber gerade durch solche Aktionen wird
das Kontingent in Kuerze erreicht und ueberschritten werden. 

>Aber grundsaetzlich sehe ich keine echte Loesung. Bei deiner Seite
>zum Beispiel wuerde ein Griechenland Fan alles lesen wollen.
>Solange er fuer die Zeit zahlen muss, greift er zum Sauger, wenn er
>clever ist. Dieser Griechenland Fan ist genau der, den du
>ansprichst. Den willst du haben. Und den willst du verprellen,
>wenn er zum Sauger greift? Das waere doch extrem selbstschaedigend!

Naja, selbstschaedigend waere es auch, wenn ich tatenlos zusehe, wie
mir einzelnen Leute zusaetzliche Kosten verursachen und sich oftmals
nie aktiv beteiligen, sondern sich eher durch ihre Nehmerqualitaeten
auszeichnen. ;-)

>Wenn die deine Seite haben, werden sie nicht mehr wiederkommen,
>jedenfalls fuer eine Weile. Und dann? Deine Seite wird davon
>leben, dass du immer wieder neue Inhalte hast. Sie werden
>vermutlich nicht mehr zum Sauger greifen, aber selbst wenn: ein
>intelligenter Sauger wuerde alte Dateien nicht noch einmal saugen
>- es sei denn, die Seiten sind dynamisch erzeugt.

Das ist aber auch Teil des Problemes. Vor ein paar Wochen hatte ich den
Fall, dass jemand alle paar Tage die komplette Site gegrabbt hat. Dass
Seiten, auch wenn sie dynamisch generiert werden, groesstenteils
statischen Content beinhalten, merken die meisten Tools natuerlich
nicht. Eine einzelnen Person hat innerhalb von wenigen Tagen mal eben 1
GB Traffic verursacht, nur weil er sein Tool nicht bedienen koennte
bzw. das Tool nicht erkennen kann, dass es groesstenteils die gleichen
Seiten grabscht.

>Man koennte den Griechenland-Freunden sogar noch entgegenkommen,
>indem man ein Zip anbietet. Dadurch wuerde man die Datenmengen und
>-Zeiten etwas begrenzen.

Genau das werde ich sicherlich nicht tun, zumindest nicht fuer die
gesamte Site. Da wir schon in der Vergangenheit mit einigen Experten
Probleme hinsichtlich Content-Klau hatten, wuerde das vielen die Arbeit
nur erleichtern. 

Ich weiss, dass man fuer dieses Problem sowieso nie eine 100%ige
Loesung finden kann und dass meine Einstellung zu dem Thema eventuell
einigen nicht schmeckt. Da ich aber beim Betrieb meiner Seiten auf jede
einzelnen DM kucken muss, muss ich den fuer mich besten Weg finden, um
unnoetige Kosten zu vermeiden...

Danke und Gruss,

        Ralf

-- 
__________________________________________
 In-Greece.de - die Griechenlandcommunity
_______ http://www.in-greece.de/ _________



php::bar PHP Wiki   -   Listenarchive