Mailinglisten-Archive |
Moinsen, ich bin gerade dabei, ein umfangreicheres Projekt von Grund auf neu aufzubauen, wobei ich unter anderem auch versuchen moechte, die Datenbank in Zukunft etwas mehr zu entlasten. Ich habe einige Anzeigen, die aus der Datenbank gelesen werden und auf fast jeder Seite erscheinen (kleine Statistik wieviel Artikel, Links etc.). Damit dafuer nicht jedes Mal die Datenbank bemueht wird, erstelle ich Caching-Dateien, die nicht die gesamte HTML Seite sondern nur Teilbereiche enthalten. So holt sich das System die Daten also entweder aus der MySQL Datenbank oder aus dem Filesystem, indem er die HTML-Fragmente zusammen kloppt. Dies klappt auch alles sehr gut und der Aufbau der Seiten beschleunigt sich dadurch schon sehr, weil er zeitintensive Abfragen nicht bei jedem Seitenaufruf durchfuehren muss. Bei meiner Caching Methode werden jedoch sehr viele kleinere Dateien in einem bis zu 10 Ebenen tiefen Verzeichnisbaum gespeichert, wobei ich die Dateien einzeln auch noch zippe, um Platz zu sparen. Sollte eine Datei zu alt sein, wird sie natuerlich ueberschrieben. Ich habe das ganze zwar noch nicht abgeschaetzt, aber es koennten unter Umstaenden mit der Zeit 100.000 und mehr Dateien erstellt werden. Zusaetzlich moechte ich ab und an alle veralteten Cache-Dateien wieder loeschen, um Platz auf der Platte zu schaffen. Ich hoffe, ich konnte die Caching Methode einigermassen verstaendlich beschreiben. Ich frage mich nun, ob der Performancegewinn auf Seiten der Datenbank nicht auf Dauer andere grosse Probleme beim Filesystem hervorrufen wuerde, da viele Dateien geschrieben, gelesen, geloescht und ueberschrieben werden? Koennte man dies ansonsten durch regelmaessige Defragmentierung im laufenden Betrieb loesen? Waere fuer jeden Tipp dankbar. Gruss, Ralf -- __________________________________________ In-Greece.de - die Griechenlandcommunity _______ http://www.in-greece.de/ _________
php::bar PHP Wiki - Listenarchive