首页 > 运维 > linux运维 > 正文

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

爱谁谁
发布: 2025-07-10 12:36:13
原创
638人浏览过

efficientnetv2 是由 google research 的 brain team 在 2021 年 icml 会议上发布的一篇论文。该论文通过神经架构搜索(nas)和缩放技术,优化了训练速度和参数效率。模型中引入的新操作,如 fused-mbconv,进一步提升了搜索空间的效率。efficientnetv2 模型的训练速度比 efficientnetv1 快得多,同时模型大小缩小了 6.8 倍。

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文大纲如下:

  1. 理解和提高 EfficientNetV1 的训练效率
    • 使用非常大的图像尺寸进行训练会导致训练速度变慢。
    • FixRes 技术通过使用较小的图像尺寸进行训练,可以将训练速度提高多达 2.2 倍,同时提高准确度。
    • Depth-wise 卷积在模型早期层执行缓慢,但在后期层效率较高。
    • Fused-MBConv 操作通过将 MBConv 中的 depthwise conv3×3 和扩展 conv1×1 替换为单个常规 conv3×3,提高了训练速度。

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

  • 在每个阶段同样扩大规模并不是最优的。EfficientNetV2 使用非均匀缩放策略,向模型后期逐渐添加更多层,并限制最大图像尺寸以减少内存消耗和加快训练速度。
  1. NAS 和缩放
    • NAS 搜索空间类似于 PNASNet,通过 NAS 进行卷积运算类型的设计选择,包括层数、内核大小、扩展比等。
    • 通过减少图像尺寸和优化搜索空间,EfficientNetV2 实现了更快的训练速度和更高的准确度。

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

  • EfficientNetV2 在早期层中广泛使用了 MBConv 和 Fused-MBConv,并更倾向于使用较小的扩展比和内核大小。
  • 缩放策略中,EfficientNetV2-S 通过复合缩放比例放大得到 EfficientNetV2-M/L,并限制最大推理图像大小为 480。

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

  1. Progressive Learning
    • 通过从小图像尺寸和弱正则化开始,逐渐增加学习难度,提高了模型的表现。

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

  1. SOTA 比较
    • 在 ImageNet 上,EfficientNetV2 模型比之前的 ConvNets 和 Transformer 模型速度更快,精度和参数效率更高。
    • 在迁移学习测试中,EfficientNetV2 模型在多个数据集上表现优于之前的模型。

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

可图大模型
可图大模型

可图大模型(Kolors)是快手大模型团队自研打造的文生图AI大模型

可图大模型 32
查看详情 可图大模型

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

  1. 消融研究
    • 在相同学习设置下,EfficientNetV2 模型的性能优于 EfficientNets。
    • 通过模型缩放和 Progressive Learning,EfficientNetV2 模型在训练速度和准确性上表现出色。
    • 自适应正则化在早期训练阶段使用较小的正则化,帮助模型更快收敛并获得更好的最终精度。

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练

引用[2021 ICML] [EfficientNetV2]EfficientNetV2: Smaller Models and Faster Training

https://www.php.cn/link/9dc69f4a9d78d28dc1ba5697a159c546

以上就是论文推荐:EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练的详细内容,更多请关注php中文网其它相关文章!

相关标签:
最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号