Mailinglisten-Archive |
hi > mal wieder ne frage. > Und zwar will ich ein FTP Search script schreiben das einen bestimmten > server durchsucht! > Gibt es schon solche scripte, wenn ja, wo? > wenn nicht, wie sieht es mit der performance aus wenn ich jedes dir einzeln > durch gehe. > Der ftp hat ungefähr 30-40 dirs auf denen ungefähr das 10 fache an dateien > gelagert ist also 300-400. > Wäre ein Search index sinnvoll, wenn ja wie kann ich den aktuell halten ohne > das der benutzer sagt das man in rebuilden soll? genau das was du suchst wird hier angeboten ftp spider 1.0 -> http://www.php-coding.org/ genau sowas habe ich auch gebraucht für unser kleines LAN, habe es mir aber selbst geschrieben. Das Script geht ordner für ordner rekursiv durch, angefangen von angegebenen root-dir, und ließt die informationen aus. Die daten werden bei mir in die datenbank geschrieben ( ID, String, erstellungsdatum). Performence: sehr gut: Webserver und FTP server sind ein rechner. Bei 115 GB an daten mit c.a. 22000 dateien und 5000 ordnern ist alles in c.a. max. 1 min indexiert. Wenn dein Webserver auf unixBasis läuft kann man das reindexen auch per cron machen. ich habe leider nur w2k, da gehts wohl nur per hand :( Administrationsmenü habe ich noch nicht geschrieben, aber dafür das crawl,-und search script wenn du interesse hast: tobias_(at)_traffic-eye.de gruss tobias
php::bar PHP Wiki - Listenarchive