Mailinglisten-Archive |
On Mon, 05 Sep 2005 10:51:45 +0200, Andreas Müller <php at universalware.de> wrote: > Hat hier irgendwer Erfahrung im Massendownload von großen Datenmengen via > PHP? Denn solange das ganze als normales File vom Indianer ausgeliefert > wurde gab es Null Probleme. was auf alle faelle sinn macht zu implementieren ist content-range, d.h. das der client einen bestimmten bereich anfragen kann der datei, die du dann auslieferst .. z.bsp. bei resuming downloads .. schau da mal hierher, http://www.w3.org/Protocols/rfc2616/rfc2616-sec14.html und suche nach "content-range" das kannst du ganz mit opera testen, im transfer fenster mit rechten maustaste "resume/abort". ist es apache1 oder apache2 ? bei apache2 gibt es unter umstaenden noch ein outputfilter cache gedoens, was man ausschalten sollte .. davon haengt auch ab, ob flush() mal funzt und mal nicht, sehr seltsam teilweise .. generell funzt flush() php seitig ganz gut. schaue aber dann nach, was dein server macht damit. wie ist php eingebunden ? cgi, fcgi, module ? sind auf dem request bestimmte module mit filter noch angesetzt ? z.bsp. mod_gzip puffert nochmal zwischen, was bei 80 mb kaum sinn macht .. d.h. ggf. mit .htaccess oder vhost directiven gzip abstellen oder andere solcher dinge ... mit dem memory limit hatte ich frueher mal das problem, seither mache ich es immer anders .. ist aber schon eine weile her .. content-length mitgeben, http code 206 OK mitgeben, partial content dann, mal logfiles mitschreiben lassen, was so wandert .. oder proxytrace http://www.pocketsoap.com/tcptrace/pt.aspx installieren, und deine download software auf den proxy einstellen und dann mal bei major download sites, like download.com oder so, gucken, was die so rumschicken an http headern. ciao Mathias
php::bar PHP Wiki - Listenarchive