解决nginx下载大文件出现文件损坏,文件大小不一致

php中文网
发布: 2016-07-29 09:05:49
原创
3289人浏览过

小伙伴今天反馈了一个问题,说,网页上传了一个2mb的文件,在网页下载时,只有64kb,并且打开失败。确认该bug确实存在且必现后,我,踏上了调试解决此bug之路。

1、系统是nginx+php+mysql,凭经验判断与mysql无关,可以无视TA。
2、从PHP网页上传2MB文件后,直接在服务器打开该文件,可以正常查阅,并且与原文件二进制一样。
3、用不同浏览器,不同电脑反复从PHP网页下载该文件,发现下载的文件均只有64KB。
4、换一个体积只有90KB的文件,从PHP网页上传下载,均无异常。
通过以上4点,基本可以判定,问题出在nginx上。这时候,打开nginx的日志文件,发现如下错误log,
[crit] 21636#0: *843968 open() “/home/www/local/nginx/fastcgi_temp/0/11/0000000110” failed (13: Permission denied) while reading upstream,…..
可以大胆猜测,由于没有足够权限操作fastcgi_temp文件夹,所以无法得到正常的文件,于是,为该文件夹赋上权限后,问题解决。

回头看,这到底是什么原因呢?

文心大模型
文心大模型

百度飞桨-文心大模型 ERNIE 3.0 文本理解与创作

文心大模型 56
查看详情 文心大模型

查看nginx配置文件,可以找到下面这一段:
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
**fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;**
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;
每次下载失败时文件的大小总是64KB,应该跟这里有关。原来,nginx会使用fastcgi_buffer_size指定的大小的缓冲区用于缓存fastcgi流的内容。当大小超出此大小时会继续用fastcgi_buffers指定的数量和大小申请缓冲区。如果依然超出此大小,会将多出的内容写入临时文件。也就是说,在本情况下,nginx首先会使用一个64K的缓冲区缓冲fastcgi流的第一部分,超出后最多申请4*64K=256K的缓冲区用于缓冲。如果继续超出,则写入临时文件。所以,在下载大于256K文件的时候,需要用到临时文件夹进行缓冲,而这里没有权限操作,就导致了该问题。

').addClass('pre-numbering').hide(); $(this).addClass('has-numbering').parent().append($numbering); for (i = 1; i ').text(i)); }; $numbering.fadeIn(1700); }); });

以上就介绍了解决nginx下载大文件出现文件损坏,文件大小不一致,包括了方面的内容,希望对PHP教程有兴趣的朋友有所帮助。

相关标签:
最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号