Mailinglisten-Archive |
Hallo. > In diesem Sinne fand ich Sebastians Ansatz, im Gegensatz zu mir ueberhaupt erst > einmal die Logik zu hinterfragen und durch eine Optimierung der Logik auch die > Laufzeit des Skripts zu senken, sehr gut. Ich bin auch durchaus jedem Tipp hier dankbar und sauge ihn auf wie ein trockner Schwamm ;-) > Vielleicht kann man den Ansatz von Sebastian ja in eine andere Richtung > weiterdenken. Ich frage mich z.B., ob es wirklich immer noetig ist, sich alle > Datensaetze zu schnappen und auf Aenderungen zu pruefen. Da Du jetzt schon > 1.500 Datensaetze hast und die Anzahl der Datensaetze nach Deiner Aussage > stetig zunimmt, wird das Ganze immer Schwerfaelliger und Unperformanter werden. Ja, ist es, da ich nicht weiß ob sich an den Dateien etwas geändert hat oder nicht. Wenn ich also meine Tabelle A durchlaufe, weiß ich nicht, ob sich seit dem letzten Durchlauf an der Datei etwas geändert hat - erst deswegen ist das Script ja nötig. Eine Abfrage des letzten Änderungsdatums ist zwar eine Option, aber: Ich frage XML-Dateien ab, die von einigen der abgefragten Quellen erst dynamisch erzeugt werden (ich frage also nicht nur eine daten.xml-Datei mit physisch korrektem Änderungsdatum ab, sondern auch eine php-Datei, die mir nur XML zurückliefert; und deren physisches Änderungsdatum entspricht ja nicht dem Änderungsdatum der XML-Daten). Perl ist zwar ein netter Vorschlag, allerdings mangels Know-How keine Option ... Ich werde - nach Nico's Praktik-Zahlen ;-) - außerdem einmal die Querys zusammenfassen. Der Quelltext liegt hier: http://gigold.de/show_php/update.phps Thomas -- Thomas Gigold - "No .com, Just Web!" < http://gigold.de/ > _ < mailto:mail at gigold.de > < http://www.rss-verzeichnis.de/ > - Futter für RSS-Reader
php::bar PHP Wiki - Listenarchive