Mailinglisten-Archive |
Am So, den 22.08.2004 schrieb Lutz Zetzsche um 8:15: Hi Lutz, danke erst einmal für den Tipp die Site ist echt gut und hat viele Anregungen gegeben. > Hi Andreas, > > Am Sonntag, 22. August 2004 00:08 schrieb Andreas Müller: > > ich habe vor einiger Zeit mal gelesen das Suchmaschienen Probleme mit > > dynamischen Webseiten haben. Da ich bisher Intranet Lösungen gebaut > > habe war Suchmaschienenoptimierung bisher auch nicht relevant für > > micht. > > das ist eigentlich ein Irrtum. :-) Irgendwann erreicht auch ein Intranet > ein Volumen, wo eine Suchmaschine fuer den Benutzer zumindest sehr > hilfreich, wenn nicht sogar unabdingbar ist. > > Da es sich allerdings um eine interne Suche handelt, hast Du hier mehr > Moeglichkeiten, darauf einflusszunehmen, was wie indiziert wird. > Naja da es bisher Anwendungen waren die nur für eine GBG waren konnte man den paar Mannen einfach die URI in den Kopf hämmern und gut war, es sollte ja nicht die ganze Firma darauf zugreifen ;) Wenn ich mich nicht irre lief die ganze Sache sogar in einem eigenen Netz dieser Gruppe. > > > Gerade baue ich aber an einem CMS und mache mir natürlich Sorgen > > darum inwie weit die Suchmaschienen Bots die Seite richtig in den > > Idex setzen. > > > > Habt ihr Tipps, wie ich die Artikel etc. die in MySQL hinterlegt sind > > und dynamisch aufgerufen werden am besten für eine Suchmaschiene > > aufbereite? > > Spontan habe ich mich gerade an einen Artikel auf contentmanager.de > erinnert, der aus meiner Sicht einen sehr guten, zusammenfassenden > Ueberblick ueber das Spannungsfeld "Suchmaschinen und dynamische > Seiten" gibt. Google sei dank habe ich ihn sofort wieder gefunden: > > http://www.contentmanager.de/magazin/artikel_162_dynamische_websites_suchmaschinen.html > > Ich persoenlich halte uebrigens Loesungsvorschlag 1 in dem Artikel, "1. > Am einfachsten und wirkungsvollsten: Statische HTML-Seiten auf dem > Live-Server verwenden", nach wie vor fuer die beste Loesung. Die > Loesung verwende ich auch immer schon auf meiner Website, fuer die ich > mir auch so etwas wie mein eigenes rudimentaeres CMS geschrieben habe, > ein Massanzug, der genau auf eine bestimmte Aufgabe optimiert ist. Die > Live-Version wird komplett statisch aus der Datenbank generiert, selbst > die Suche greift bei der Ergebnisaufgabe auf vorgenerierte > Codeschnipsel zurueck. Nur der eigentliche und erste Suchvorgang ist > dynamisch, so dass die erste Suchergebnisseite in der Regel in einer > Zeit unter 0,25 Sekunden ausgeliefert wird, die Folgeseiten noch > schneller, weil das fertige Suchergebnis, dass heisst die gefundenen > IDs, dann aus der Session geholt wird. > Das ist sicherlich ein guter Ansatz allerdings würde ich mir da ein wenig Sorgen um den Speicherverbrauch machen, aber etwas in der Art hatte ich mir auch schon überlegt. Nur sehe ich da dann noch so das kleine Problem das wenn du dynamisch aus der DB die Daten suchst kannst du entweder a) die Daten in neuen Templates hinterlegen oder b) muss in der DB auf die jeweilige URI verlinken, was evtl nicht ganz sauber ist, da dann bei Änderungen innerhalb der Webstruktur die halbe DB auf den Kopf stellen musst. Ein kleiner Cronjob der regelmässig die Konzistenz der Website mit der DB vergleicht sollte da aber abhilfe schaffen? Oder wie hast du das Problem gelöst? > Der Vorteil der Loesung mit statischen Seiten ist neben der Tatsache, > dass statische Seite von der URL her fuer die Masse der Suchmaschinen > immer noch am optimalsten ist, zumal wenn die URLs auch noch > "sprechend" sind, dass statische Seiten gegenueber dynamischen deutlich > performanter sind, dass sie deutlich weniger Serverlast erzeugen (vor > allem bei hochfrequentierten Websites wichtig) und nebenbei auch dann > noch funktionieren, wenn Dein Datenbankserver - aus welchen Gruenden > auch immer - einmal nicht erreichbar sein sollte. > > Gerade auch der Punkt Serverlast und Performanz spricht eindeutig fuer > die Verwendung statischer Seiten, wo immer es moeglich ist. Wozu > Inhalte immer wieder zur Laufzeit dynamisch ausliefern und dabei immer > wieder dieselben Datenbankabfragen, Operationen und Berechnungen > ausfuehren, wenn die Inhalte sich doch eigentlich viel seltener > aendern, als sie aufgerufen werden? ;-) > Wenn alle so denken würden würde die großen CPU-Hersteller sicherlich einen Marktschwund leiden ;) Aber sicher du hast recht.. Aus Performence sicht ist alles besser als Serverbasierend Applikationen ohne vernünftiges Databuffering, was PHP ja leider nicht über Sessions hinweg kann und man wenn man die Daten in in Sessions speichert man immer davon ausgehen muss der Besucher einen Link mehr als einmal benutzt was ja nicht sehr oft vorkommt. > Ansonsten kannst Du neben dem contentmanager.de-Artikel auch mal > woanders im Netz stoebern: > > http://www.google.de/search?hl=de&ie=ISO-8859-1&q=suchmaschinen+%22dynamische+seiten%22&btnG=Suche&meta= > > > Viele Gruesse > > Lutz Wenn du magst können wir uns ja mal private darüber mailen? With best regards Andy
php::bar PHP Wiki - Listenarchive