Mailinglisten-Archive |
> Mein Kunde hat eine bestehende Anwendung bestehend aus einem > VB-6-Programm, welches Messdaten im Minutentakt in eine > MS-SQL-2000-Datenbank schaufelt. Dort werden diese dann von > SQL-Prozessen im 2- bzw. 5-Minutentakt weiterverarbeitet. Warum wird hier nicht konstant gearbeitet? Lieber kontinuierlich eine tiefere Last als viele Spitzen. > Knackpunkte sind für mich dabei die zeitgetriggerten Datenbank-Jobs > die ja dann allesamt auf php-Seite laufen müssen. Da habe ich bislang > nur die cron-Lösung ausfindig gemacht. Für mich ist da auch das Risiko > dabei, dass so ein php-Job mglw. nicht fertig ausgeführt wird, > weil zB das Timelimit erreicht ist. max_execution_time zählt nicht, wenn die Arbeit in der Datenbank getan wird. Ansonsten kann man es auch auf 'ne Stunde o.ä. raufsetzen. > Seitens mySQL weiss ich nicht, ob es hier Grenzen gibt. > Pro Input-Datensatz werden ca. 50 SQL-Queries abgesetzt. InnoDB. Und Prozesse optimieren (z.B. weniger Queries). > Hat da jemand eine Idee zu ? man rrdtool ;) Gruss, Andreas
php::bar PHP Wiki - Listenarchive