phpbar.de logo

Mailinglisten-Archive

[php] Viel Arbeit: Tausende Durchläufe

[php] Viel Arbeit: Tausende Durchläufe

Thomas Gigold listen at gigold.de
Mit Apr 7 11:16:33 CEST 2004


Hallo.

Ich habe folgendes Problem und suche nach einer guten Lösung:
Ich habe ein Script, das aus einer Tabelle A knapp 1500 
Einträge liest (werden stetig mehr). Innerhalb der 
while-Schleife wird eine Datei gelesen, diese mit einem in 
Tabelle B vorhandenen Eintrag gegengeprüft. Gibt es eine 
Änderung wird der Inhalt der Datei in die Tabelle B geschrieben.
Schön und gut, die while-Schleife funktioniert.
Da das lesen, prüfen und schreiben so seine Zeit dauert 
komme ich nicht in einem "Rutsch" durch die while-Schleife 
durch, weil es natürlich in einem Time-Out endet.

Jetzt meine Frage:
Wie schaffe ich es am geschicktesten, dass es nicht in einem 
Time-Out landet? Ich dachte ich lasse 50 Datensätze 
durchlaufen, geb dann die ID des letzten bearbeiteten 
Datensatzes per header-Weiterleitung an das gleiche Script 
wieder weiter und fang dann bei meiner DB-Abfrage mit einer 
id > $_GET['id'] an.
Dachte eigentlich das sei eine gute Idee; leider bringt es 
auch nicht viel, da ich nach einer Weile wieder im Time-Out 
lande.

Wie handelt Ihr derlei Sachen? Ein Outbut muss dieses Script 
nicht erzeugen; es soll per CronJob regelmäßig angestossen 
werden und soll "vor sich hin werkeln".


Grüße aus dem Süden

Thomas
-- 
Thomas Gigold _ Ludwigsburg
< http://gigold.de/ > _ < mailto:mail at gigold.de >
< http://www.rss-verzeichnis.de/ > - Futter für RSS-Reader


php::bar PHP Wiki   -   Listenarchive