登录  /  注册
博主信息
博文 352
粉丝 0
评论 0
访问量 59228
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
法国 mixtral一种具有开放权重的高质量稀疏专家混合模型
霍格沃兹测开学社
原创
216人浏览过

Mixtral 是一种具有开放权重的高质量稀疏专家混合模型 (SMoE)。根据 Apache 2.0 许可。Mixtral 在大多数基准测试中都优于 Llama 2 70B,推理速度提高了 6 倍。它是最强大的开放权重模型,具有宽松的许可证,也是成本/性能权衡方面的最佳模型。特别是,它在大多数标准基准测试中匹配或优于 GPT3.5。

Mixtral 的特点

  • 可以优雅地处理 32k 令牌的上下文。
  • 可以处理英语、法语、意大利语、德语和西班牙语。
  • 在代码生成方面表现出强大的性能。

基于 Hugging Face Transformers 使用 mixtral

  1. ## Use a pipeline as a high-level helper
  2. from transformers import pipeline
  3. def test_mixtral():
  4. pipe = pipeline("text-generation", model="mistralai/Mixtral-8x7B-Instruct-v0.1")
  5. pipe("请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest")

使用 langchain 调用 mixtral

  1. def test_mixtral():
  2. llm = Ollama(model="mixtral", base_url="http://localhost:11434")
  3. r = llm.invoke('请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest')
  4. debug(r)

总结

Mixtral 是一种具有开放权重的高质量稀疏专家混合模型。

本博文版权归博主所有,转载请注明地址!如有侵权、违法,请联系admin@php.cn举报处理!
全部评论 文明上网理性发言,请遵守新闻评论服务协议
0条评论
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号

  • 登录PHP中文网,和优秀的人一起学习!
    全站2000+教程免费学