Go并发下载工具核心是goroutine+channel管理任务,用http.Client请求、io.Copy流式写入;非多线程而是轻量协程,适合I/O密集型。1.单文件下载:http.Get→检查状态码→os.Create→os.MkdirAll→io.Copy→defer关闭→返回error;2.并发控制:用带缓冲channel(如sem:=make(chan struct{},10))限流。

用 Go 实现并发下载工具,核心是利用 goroutine + channel 管理任务,配合 http.Client 发起请求,并用 io.Copy 流式写入文件。它不是“多线程”(Go 没有传统线程概念),而是轻量级协程调度,天然适合 I/O 密集型下载任务。
1. 基础单文件下载(铺垫逻辑)
先写一个可靠的单文件下载函数,后续并发复用:
- 使用
http.Get获取响应,检查状态码(如 200、302) - 用
os.Create创建本地文件,确保路径存在(可用os.MkdirAll) - 用
io.Copy边读边写,避免内存积压;加defer resp.Body.Close() - 返回 error 便于上层统一处理失败情况
2. 并发控制:限制 goroutine 数量
直接为每个 URL 启动 goroutine 容易打爆连接或触发服务端限流。推荐用带缓冲的 channel 做信号量:
- 定义
sem := make(chan struct{}, 10)—— 最多同时运行 10 个下载 - 每个 goroutine 开始前
sem ,结束后 - 这样既控制并发数,又无需手动 WaitGroup 等待全部结束(可配合 channel 收集结果)
3. 任务分发与结果收集
用两个 channel 实现解耦:
立即学习“go语言免费学习笔记(深入)”;
-
jobs := make(chan string, 100):存待下载的 URL(缓冲防阻塞) -
results := make(chan error, len(urls)):每个 goroutine 下载完发回 error(nil 表示成功) - 启动 N 个 worker goroutine 从
jobs取 URL 执行下载,写结果到results - 主 goroutine 关闭
jobs后,循环接收results直到满额,统计失败数
4. 增强实用性的小细节
生产级下载工具还需考虑这些:
-
重试机制:对临时错误(如超时、503)做 2~3 次指数退避重试,用
time.Sleep控制间隔 -
进度显示:用
io.MultiWriter把响应 Body 同时写入文件和进度计数器(如统计已读字节数) -
HTTP 配置:设置
http.Client.Timeout和Transport.MaxIdleConnsPerHost防止连接耗尽 -
断点续传(可选):HEAD 请求获取
Content-Length,用Range请求未下载部分,需本地文件 seek 写入
基本上就这些。Go 的并发模型让下载工具写起来简洁又可控,重点不在“开多少 goroutine”,而在于用 channel 编排好任务流、错误流和资源约束。










