最近几周我自学了deepseek的原理、应用和实践,现在和大家分享一下我的成果:
今天我们来聊聊deepseek的核心机制之一——混合专家(MOE)。
什么是混合专家(MOE)?
混合专家(Mixture of Experts)是一种不再追求大而全,而是追求多而专精的模型思路。它会将任务动态路由给各个领域的专家,并将各个专家的输出进行组合。
这个概念可能有点抽象,举个容易理解的例子。
大而全模型:全栈工程师。
混合专家模型:Java工程师、前端工程师、测试工程师、数据库管理员、运维工程师...
大而全模型有什么不足之处?
而混合专家模型则能够很好地解决上述几个问题:
有了MOE之后,对LLM的架构有哪些影响?
在学习与训练阶段:
之前:追求多参数。
如今:训练多个专家(例如:1万个专家,每个专家单一职责SRP)。
在计算与执行阶段:
之前:收到提示词input,直接开始处理。
如今:
input[提示词] --> 专家分类{专家E1E2...En}
门控网络 --> E1E2...En
E1 --> O1[输出1]
E2 --> O2[输出2]
...
En --> On[输出n]
O1O2...On --> 统筹输出[output]
MOE对我们写提示词,获取更佳的回答质量有什么启示呢?
如果觉得AI回复缺乏深度,可以明确告诉它,你希望它扮演什么专家角色来回答问题。
画外音:模型分类出来的专家角色不一定100%准确。
bad case:如何设计高并发高可用系统?
这样的提示词,你会得到一个泛泛而谈的回答。
good case:假设你是由以下专家组成的团队:
请分别从各自领域提出5项技术选型建议,并组合设计方案满足每秒10万次交易,数据满足最终一致性,故障恢复时间小于30秒的系统。
节省训练资源,缩短回复时间,提升回答质量,多个专家还能够交叉验证(大而全模型可能过拟合),deepseek创新性使用MOE之后,很快就得到了业界的广泛认可与复制。
deepseek,流弊!
总结:
一切的一切,提示词只有适配了AI的认知模式,才能最高效地发挥最大的作用。
知其然,知其所以然。
思路比结论更重要。
补充阅读材料:
《MOE简述》
https://www.php.cn/link/8b78421d9ab29962ef6082f8233fbcec
以上就是别TM浪费算力了,这样才能最大限度发挥deepseek的潜能 - MOE(第3讲)的详细内容,更多请关注php中文网其它相关文章!
DeepSeek (深度求索)杭州深度求索(DeepSeek)官方推出的AI助手,免费体验与全球领先AI模型的互动交流。它通过学习海量的数据和知识,能够像人类一样理解和处理信息。多项性能指标对齐海外顶尖模型,用更快的速度、更加全面强大的功能答疑解惑,助力高效美好的生活。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号