使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek

蓮花仙者
发布: 2025-04-22 16:28:29
原创
377人浏览过

由于某些原因,在春节期间,deepseek 遭受了恶意的攻击,导致在撰写本文时,deepseek api 控制台仍未恢复访问。

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek笔者在实际使用过程中也常常遇到 DeepSeek 无法按预期生成有意义的回复,或者服务器繁忙的情况。

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek我们知道,DeepSeek 是一个开源的大型模型,其开源性质最显著的表现是完整公开的模型架构设计。

与闭源模型的黑箱特性形成鲜明对比的是,DeepSeek 的 GitHub 仓库不仅包含模型权重文件,还详细披露了 transformer 架构的具体实现细节:

https://www.php.cn/link/75124f25b1db7620476f6d70697fec61

项目中公开的 data_curation 模块展示了从原始网页数据到高质量训练数据的完整处理流程。

这一切使得 DeepSeek 模型非常容易在本地电脑或任何主流云端进行部署。

以腾讯 HAI 为例,在腾讯 HAI 上部署并运行 DeepSeek R1 模型,整个过程不会超过 5 分钟。

腾讯 HAI,全称 Hyper Application Inventor,是一款面向 AI 和科学计算的高性能 GPU 应用服务产品,提供即插即用的强大算力和常见环境。

HAI 的访问入口:

https://www.php.cn/link/d06ea3741c03e92e0e5f2f4ba8c288b0

点击“立即使用”:

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek新建算力资源:

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek在算力资源列表中,选择“社区应用”,排名第一的就是 DeepSeek-R1:

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek选择最基础的“GPU 基础型”算力,这种规格的算力为 8+ TFlops SP,其中 Flops 是 Floating Point Operations Per Second 的缩写,代表计算机每秒可以执行的浮点运算次数。

T 代表 10 的 12 次方,即一万亿,8 TFlops 即每秒 8 万亿次浮点运算,SP 即 Single Precision,单精度运算,表示计算机使用 32 位(4 字节)的浮点数进行计算。

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek算力资源只需两三分钟即可自动创建完成。

在创建好的实例中,预置了通过 Web 浏览器和终端命令行访问 DeepSeek R1 模型的“ChatbotUI”和“JupyterLab”。

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeekChatbotUI,即 Chatbot Ollama,是一个开源的聊天用户界面,专门为 Ollama 模型设计,基于 chatbot-ui 项目。

它旨在为用户提供一个简洁、高效的交互平台,以便更好地与 Ollama 管理的模型进行互动。

Ollama 是一个开源框架,专为在本地运行大型语言模型而设计,其主要特点是将模型权重、配置和数据捆绑到一个包中,从而优化了设置和配置细节,包括 GPU 使用情况,简化了在本地运行大型模型的过程。

腾讯 HAI 将 Ollama 的安装和配置工作完全隐藏起来,只需在上图展示的 HAI 算力资源创建页面新建算力,就能立即得到“开箱即用”的 DeepSeek R1 模型应用。

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek点击“ChatbotUI”,会自动打开一个浏览器窗口,我们就可以在这个窗口里与 DeepSeek 进行对话了。

在 Ollama Model 下拉菜单中,可以选择预置的 1.5b 或 7b 模型。

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeekb 即 billion,1.5b 代表模型参数为 15 亿个,7b 则代表 70 亿个模型参数。

7b 模型由于拥有更多的参数,能够捕捉到更复杂的特征,因此在处理复杂任务时,通常比 1.5b 模型表现更优异。比如在需要深度理解和推理的任务中,7b 模型可以提供更准确详细的回答。

另一方面,由于参数数量的增加,7b 模型对硬件配置的要求更高,在运行时需要更多的计算资源。根据 Ollama 官方提供的信息,7b 模型的大小约为 4.68 GB,而 1.5b 模型约为 1.1 GB。

当然,因为我们使用了 PHP 中文网端的 HAI,使用这些模型不会给本地电脑浏览器端产生任何额外的负载。

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek用一些稍微复杂的题目来测试:

DeepSeek 给出了令人满意的回答:

使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek当然,腾讯 HAI 结合 DeepSeek 的本地部署场景,还有一些更高级的玩法,比如上传本地文件打造个人知识库,本公众号后续将继续介绍。

以上就是使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek的详细内容,更多请关注php中文网其它相关文章!

豆包AI编程
豆包AI编程

智能代码生成与优化,高效提升开发速度与质量!

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号