Mailinglisten-Archive |
Hallo Werner, danke erstmal fuer deinen ausfuehrlichen Kommentar, auch wenn wir jetzt eventuell ins OT abdriften... ;-) >Wir koennen also annehmen, dass Leute, die einen Sauger ansetzen, >an unserem Angebot wirklich interessiert sind. In der Praxis ist >es allerdings so, dass von den heruntergeladenen Seiten spaeter >vielleicht offline doch nur wenige angeschaut werden. Das ist das >Risiko (fuer beide Seiten). Ich gehe einmal davon aus, dass fast niemand, der die Site komplett saugt, alles lesen kann oder will. Bei ueber 1.000 Artikeln ueber Griechenland, derzeit knapp 12.000 Forenbeitraege und ueber 2.300 Fotos braucht man schon etwas, um das ganze Material zu sichten... ;-) Ein kompletter Download der Site besteht momentan aus 200 MB Traffic. Machen das nur 10 Leute im Monat, sind das mal locker 2 GB Traffic, die die gleichen 10 Leute wahrscheinlich in einem Jahr nicht zusammensurfen wuerden. Momentan liegen die Seiten noch auf einem Schlund Paket mit 25 GB Traffic inklusive pro Monat. Aber gerade durch solche Aktionen wird das Kontingent in Kuerze erreicht und ueberschritten werden. >Aber grundsaetzlich sehe ich keine echte Loesung. Bei deiner Seite >zum Beispiel wuerde ein Griechenland Fan alles lesen wollen. >Solange er fuer die Zeit zahlen muss, greift er zum Sauger, wenn er >clever ist. Dieser Griechenland Fan ist genau der, den du >ansprichst. Den willst du haben. Und den willst du verprellen, >wenn er zum Sauger greift? Das waere doch extrem selbstschaedigend! Naja, selbstschaedigend waere es auch, wenn ich tatenlos zusehe, wie mir einzelnen Leute zusaetzliche Kosten verursachen und sich oftmals nie aktiv beteiligen, sondern sich eher durch ihre Nehmerqualitaeten auszeichnen. ;-) >Wenn die deine Seite haben, werden sie nicht mehr wiederkommen, >jedenfalls fuer eine Weile. Und dann? Deine Seite wird davon >leben, dass du immer wieder neue Inhalte hast. Sie werden >vermutlich nicht mehr zum Sauger greifen, aber selbst wenn: ein >intelligenter Sauger wuerde alte Dateien nicht noch einmal saugen >- es sei denn, die Seiten sind dynamisch erzeugt. Das ist aber auch Teil des Problemes. Vor ein paar Wochen hatte ich den Fall, dass jemand alle paar Tage die komplette Site gegrabbt hat. Dass Seiten, auch wenn sie dynamisch generiert werden, groesstenteils statischen Content beinhalten, merken die meisten Tools natuerlich nicht. Eine einzelnen Person hat innerhalb von wenigen Tagen mal eben 1 GB Traffic verursacht, nur weil er sein Tool nicht bedienen koennte bzw. das Tool nicht erkennen kann, dass es groesstenteils die gleichen Seiten grabscht. >Man koennte den Griechenland-Freunden sogar noch entgegenkommen, >indem man ein Zip anbietet. Dadurch wuerde man die Datenmengen und >-Zeiten etwas begrenzen. Genau das werde ich sicherlich nicht tun, zumindest nicht fuer die gesamte Site. Da wir schon in der Vergangenheit mit einigen Experten Probleme hinsichtlich Content-Klau hatten, wuerde das vielen die Arbeit nur erleichtern. Ich weiss, dass man fuer dieses Problem sowieso nie eine 100%ige Loesung finden kann und dass meine Einstellung zu dem Thema eventuell einigen nicht schmeckt. Da ich aber beim Betrieb meiner Seiten auf jede einzelnen DM kucken muss, muss ich den fuer mich besten Weg finden, um unnoetige Kosten zu vermeiden... Danke und Gruss, Ralf -- __________________________________________ In-Greece.de - die Griechenlandcommunity _______ http://www.in-greece.de/ _________
php::bar PHP Wiki - Listenarchive