总结
豆包 AI 助手文章总结

每日学术速递7.31

星夢妙者
发布: 2025-04-27 15:38:01
原创
615人浏览过
  1. 适应还是不适应?语义分割的实时适应(ICCV 2023)

每日学术速递7.31标题:适应还是不适应?语义分割的实时适应

作者:Marc Botet Colomer, Pier Luigi Dovesi, Theodoros Panagiotakopoulos, Joao Frederico Carvalho, Linus Härenstam-Nielsen, Hossein Azizpour, Hedvig Kjellström, Daniel Cremers, Matteo Poggi

文章链接:https://www.php.cn/link/69ae57a20fbf05b1b85b4f1ed95c3fee

项目代码:https://www.php.cn/link/93252740625b1bcb6dfa091de2d09202

每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31摘要:

在线域适应在语义分割中的目标是应对部署过程中出现的不可预测的域变化,例如突如其来的天气事件。然而,暴力适应的高计算成本使得这种方法在现实世界的应用中不可行。本文提出了 HAMLET,一种针对实时域适应的硬件感知模块化最便宜训练框架。我们的方法包括一个硬件感知的反向传播编排代理(HAMT)和一个专用的域转移检测器,可以主动控制模型何时以及如何进行调整(LT)。得益于这些创新,我们的方法能够在单个消费级 GPU 上以超过 29FPS 的速度执行语义分割并进行调整。我们的框架在 OnDA 和 SHIFT 基准上的实验结果展示了令人鼓舞的准确性和速度平衡。

主题:cs.RO

  1. 放大和缩小:语言引导的机器人技能习得

每日学术速递7.31标题:放大和缩小:语言引导的机器人技能习得

作者:Huy Ha, Pete Florence, Shuran Song

文章链接:https://www.php.cn/link/8ed700a6d0de777200111377efb82f53

项目代码:https://www.php.cn/link/746d3a5820bf0745b12072c64be03429

每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31摘要:

我们提出了一个机器人技能获取框架,该框架1)有效地扩大了语言标记机器人数据的数据生成,2)有效地将这些数据提炼成强大的多任务语言条件视觉运动策略。对于(1),我们使用大型语言模型(LLM)来指导高级规划,并使用基于采样的机器人规划器(例如运动或抓取采样器)来生成多样化且丰富的操作轨迹。为了增强此数据收集过程,LLM 还推断每个任务成功条件的代码片段,同时使数据收集过程能够检测失败和重试,并自动标记成功/失败的轨迹。对于(2),我们将扩散策略单任务行为克隆方法扩展到具有语言调节的多任务设置。最后,我们提出了一个新的多任务基准,包含跨五个领域的 18 项任务,以测试长期行为、常识推理、工具使用和直观物理。我们发现,我们的精炼策略成功地学习了数据收集策略中稳健的重试行为,同时将五个域的绝对成功率平均提高了 34.8%。

主题:cs.CL

  1. 将 TransNormer 扩展到 1750 亿个参数(上海 AI 实验室)

标题:将 TransNormer 扩展到 1750 亿个参数

作者:Zhen Qin, Dong Li, Weigao Sun, Weixuan Sun, Xuyang Shen, Xiaodong Han, Yunshen Wei, Baohong Lv, Fei Yuan, Xiao Luo, Yu Qiao, Yiran Zhong

文章链接:https://www.php.cn/link/5ed9f910a5a0bb195a269bda9d82af81

项目代码:https://www.php.cn/link/1c21b0912f1088c26479be9299203f2b

每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31每日学术速递7.31摘要:

我们提出了 TransNormerLLM,这是第一个基于线性注意力的大语言模型 (LLM),它在准确性和效率上都优于传统的基于 softmax 注意力的模型。TransNormerLLM 从之前的线性注意力架构 TransNormer 演变而来,进行了高级修改,包括位置嵌入、线性注意力加速、门控机制、张量归一化、推理加速和稳定性。具体来说,我们将 LRPE 与指数衰减结合使用,以避免注意力稀释问题,同时允许模型保留令牌之间的全局交互。此外,我们提出了闪电注意力(Lightning Attention),这是一种尖端技术,可以在运行时将线性注意力加速两倍以上,并将内存使用量减少四倍。为了进一步增强 TransNormer 的性能,我们利用门控机制来平滑训练,并利用新的张量归一化方案来加速模型,从而获得超过 20% 的令人印象深刻的加速。此外,我们开发了一种强大的推理算法,无论序列长度如何,都能确保数值稳定性和一致的推理速度,从而在训练和推理阶段展现出卓越的效率。可扩展性是我们模型设计的核心,可以在大规模集群上实现无缝部署,并促进扩展到更广泛的模型,同时保持出色的性能指标。我们的模型设计是通过对我们自收集的语料库进行一系列综合实验来实现的,该语料库的大小超过 6TB,包含超过 2 万亿个代币。为了确保数据质量和相关性,我们实施了新的自我清理策略来过滤收集的数据。我们将发布预先训练的模型,以促进高效 LLM 社区的进步。

推荐阅读每日学术速递7.30

2023-07-30

每日学术速递7.31每日学术速递7.29

2023-07-29

每日学术速递7.31这次来真的?室温常压超导全球复现一文速览

2023-07-28

每日学术速递7.31

以上就是每日学术速递7.31的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
豆包 AI 助手文章总结
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号