扫码关注官方订阅号
由于业务需求,需要进行文本下载
由于文本过大,导致超时出现以上这种现象,有什么好的方法可以避免下载超时吗?在此万分感谢!!!
拥有18年软件开发和IT教学经验。曾任多家上市公司技术总监、架构师、项目经理、高级软件工程师等职务。 网络人气名人讲师,...
504网关超时,不是nginx超时, 还是php超时。要设置 fastcgi 或者说 php-fpm 的超时时间。
设置php ini超时时间
如果你的php前有nginx或者apache(一般都有吧),需要同时设置它们的超时时间。
否则它超时了,你后端不超时也没用啊。
用Linux系统工具进行下载,wget、curl、axel之类的
wget
curl
axel
调整php的超时时间即可避免这样的问题
切割成小文本下载?
要是爬虫的话,推荐用python,可以获取网页内的图片,文字,并进行格式化处理,方便点。这是个参考链接:http://www.cnblogs.com/fnng/p/3576154.ht...
打成zip包再下载呗,文本文件的压缩比很高,与其考虑超时的问题不如考虑怎么让文件变小,这样也节约访问者的等待时间,比如你在服务器上导出mysql下载到本地,你愿意直接下载还是压缩之后在下载呢?前者可能要10分钟,后者几十秒。
微信扫码关注PHP中文网服务号
QQ扫码加入技术交流群
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号
PHP学习
技术支持
返回顶部
504网关超时,不是nginx超时, 还是php超时。
要设置 fastcgi 或者说 php-fpm 的超时时间。
设置php ini超时时间
如果你的php前有nginx或者apache(一般都有吧),需要同时设置它们的超时时间。
否则它超时了,你后端不超时也没用啊。
用Linux系统工具进行下载,
wget
、curl
、axel
之类的调整php的超时时间即可避免这样的问题
切割成小文本下载?
要是爬虫的话,推荐用python,可以获取网页内的图片,文字,并进行格式化处理,方便点。这是个参考链接:http://www.cnblogs.com/fnng/p/3576154.ht...
打成zip包再下载呗,文本文件的压缩比很高,与其考虑超时的问题不如考虑怎么让文件变小,这样也节约访问者的等待时间,比如你在服务器上导出mysql下载到本地,你愿意直接下载还是压缩之后在下载呢?前者可能要10分钟,后者几十秒。