扫码关注官方订阅号
就是下载文件在PHP中,不是echo二进制的数据流,那么不是先讲二进制的数据流写入到内存,然后再输出到缓冲区。但是如果一个用户下载了一个几十g的文件,那么岂不是意味这内存就满了?
走同样的路,发现不同的人生
可以用X-Accel-Redirect把文件委托给Nginx输出:
<?php header('Content-type: application/octet-stream'); header('Content-Disposition: attachment; filename="'.basename($file_path).'"'); header("X-Accel-Redirect: $file_path");
这样就不会阻塞PHP-FPM工作进程了. 小文件Nginx会用sendfile进行处理,大文件可以用AIO线程池进行处理,基本也不会阻塞Nginx工作进程:http://nginx.org/en/docs/http/ngx_http_core_module.html#aio
location /video/ { sendfile on; aio threads; directio 512k; output_buffers 1 128k; }
memory_limit = 128M
php实现大文件下载,使用ob_flash以及http协议的断点续传
参考:http://bbs.phpchina.com/thread-178853-1-1.htmlhttp://liqwei.com/network/protocol/2011/886.shtmlhttp://www.cnblogs.com/thinksasa/archive/2013/02/27/2934953.html
太大的话用basket。好点的云平台都有这个吧。而是速度超级快的。小的话无所谓。反正我现在文件全部扔basket里面了。
微信扫码关注PHP中文网服务号
QQ扫码加入技术交流群
扫描下载App
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号
PHP学习
技术支持
返回顶部
可以用X-Accel-Redirect把文件委托给Nginx输出:
这样就不会阻塞PHP-FPM工作进程了.
小文件Nginx会用sendfile进行处理,大文件可以用AIO线程池进行处理,基本也不会阻塞Nginx工作进程:
http://nginx.org/en/docs/http/ngx_http_core_module.html#aio
memory_limit = 128M
,没有修改配置的话,单个脚本可以分配额内存不能超过128Mphp实现大文件下载,使用ob_flash以及http协议的断点续传
参考:
http://bbs.phpchina.com/thread-178853-1-1.html
http://liqwei.com/network/protocol/2011/886.shtml
http://www.cnblogs.com/thinksasa/archive/2013/02/27/2934953.html
太大的话用basket。好点的云平台都有这个吧。而是速度超级快的。小的话无所谓。反正我现在文件全部扔basket里面了。