高效moe架构重塑边缘计算边界——liquid ai推出全新lfm2-8b-a1b模型,作为lfm2系列首款混合专家(mixture-of-experts, moe)架构模型,其总参数量达8.3b,但每token仅激活约1.5b参数。得益于稀疏激活机制,该模型在维持强大表达能力的同时显著降低计算开销,特别适用于手机、平板等资源受限的终端设备。与传统依赖云端部署的moe模型不同,lfm2-8b-a1b专为实时交互场景优化,突破了“小规模moe效率低下”的行业固有认知。
该模型基于LFM2混合骨干结构构建,包含18个门控短卷积块和6个分组查询注意力(GQA)模块。除前两层保持稠密以保障训练稳定性外,其余各层均集成稀疏MoE前馈网络。每一层配置32个专家,实际运行时仅激活top-4专家,并通过归一化sigmoid路由器结合自适应偏置策略,实现更均衡的专家负载分配。支持长达32K token的上下文输入,具备英文、阿拉伯文、中文、法文、德文、日文、韩文及西班牙文等多语言处理能力。

训练与性能:12T token训练铸就媲美3-4B模型的能力
LFM2-8B-A1B历经约12万亿token的预训练过程,数据分布涵盖55%英文、25%多语言文本以及20%代码内容。后续采用Liquid Preference Alignment技术(融合长度归一化的DPO与APO-Zero方法)进行对齐训练,借助混合BF16/FP8精度方案,使整体训练效率提升超3倍。
在多项基准测试中表现亮眼:
综合来看,其输出质量可对标3-4B级别的稠密模型,在多轮对话连贯性、创意文本生成、RAG检索增强回答以及工具调用等复杂任务中展现出卓越能力。
部署与集成:最高5倍加速,全面兼容主流框架
LFM2-8B-A1B在CPU与GPU上的推理速度表现突出。在搭载AMD Ryzen AI 9 HX 370和三星Galaxy S24 Ultra等设备上,采用int4量化配合int8动态激活,并运行定制化XNNPACK MoE内核时,解码吞吐量相较Qwen3-1.7B、IBM Granite 4.0等同类模型最高提升达5倍。
GPU端已集成vLLM推理引擎,支持FlashInfer与CUDA graph编译优化,兼顾单请求低延迟与高并发在线批处理需求。
针对移动端与轻量级设备,模型提供多种量化版本:Q4_0格式仅需约4.7GB存储空间,F16版本约为16.7GB。目前支持llama.cpp(需b6709及以上版本并启用lfm2moe支持)、ExecuTorch(适用于移动及嵌入式CPU)和vLLM(GPU平台)三大主流框架。此外,Hugging Face已开放GGUF量化文件下载,并配套提供Colab微调笔记本,助力开发者快速部署与二次开发。该模型现已上线Liquid Playground平台,供用户在线体验与测试。
以上就是Liquid AI 发布 LFM2-8B-A1B:8B 参数仅激活 1.5B的详细内容,更多请关注php中文网其它相关文章!
                        
                        Windows激活工具是正版认证的激活工具,永久激活,一键解决windows许可证即将过期。可激活win7系统、win8.1系统、win10系统、win11系统。下载后先看完视频激活教程,再进行操作,100%激活成功。
                
                                
                                
                                
                                
                                
                                Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号