在本地计算机上离线部署DeepSeek大模型

爱谁谁
发布: 2025-04-22 10:26:39
原创
539人浏览过

系统要求:需要windows 10 或更高版本操作系统,硬盘空间应不少于5gb。

下载安装文件的百度网盘链接为:https://www.php.cn/link/3b20413fc76c5f432ede85b03e8af0a1

从该链接可以下载到本文所需的Ollama安装包以及DeepSeek模型,这两部分文件都包含在压缩包“离线部署deepseek.rar”中。

安装Ollama:双击Ollama安装包(OllamaSetup.exe),点击“Install”按钮开始安装。

在本地计算机上离线部署DeepSeek大模型安装完成后,按下 Win + R 键,输入 cmd 并按回车键,启动命令行窗口。

在本地计算机上离线部署DeepSeek大模型在命令行中输入 ollama,如果看到以下输出,表示Ollama已成功安装。

在本地计算机上离线部署DeepSeek大模型安装Deepseek R1 1.5b模型:1.下载并解压模型从百度网盘下载Deepseek R1 1.5b模型的压缩包(deepseek-r1-1.5b.rar),解压后进入解压后的文件夹,并在该文件夹中输入cmd。

在本地计算机上离线部署DeepSeek大模型2.通过命令行安装模型在命令行中输入以下命令,Ollama将根据Modelfile中的配置自动安装 deepseek-r1-1.5b.gguf 文件:

ollama create deepseek-r1-1.5b -f Modelfile
登录后复制

安装成功后,命令行会显示“success”提示。

在本地计算机上离线部署DeepSeek大模型3.运行Deepseek模型安装完成后,输入以下命令即可启动Deepseek模型:

ollama run deepseek-r1-1.5b
登录后复制

在本地计算机上离线部署DeepSeek大模型安装其他大小的DeepSeek大模型本文以DeepSeek-r1 1.5b作为示例,如果需要安装其他大小的模型,必须获取该模型的gguf文件。目前DeepSeek在Hugging Face上发布的模型并未直接提供gguf文件,通过量化模型获取gguf文件较为复杂。

因此,建议需要安装其他大小DeepSeek模型的用户,在有网络连接的设备上运行Ollama,直接下载相应大小的DeepSeek大模型,例如7B模型。下载后,将模型文件放置于模型文件夹中(C:\Users\你的用户名.ollama\models\blobs),该文件夹内保存的是你下载的模型文件。通过最近的下载时间和文件大小判断出7B模型文件(文件名通常是一个很长的ID),将其重命名为deepseek-r1-7b.gguf。接着修改Modelfile中的FROM字段内容,完成后将文件复制到离线环境中,按照前述步骤进行离线安装即可。

在本地计算机上离线部署DeepSeek大模型

以上就是在本地计算机上离线部署DeepSeek大模型的详细内容,更多请关注php中文网其它相关文章!

DeepSeek (深度求索)
DeepSeek (深度求索)

DeepSeek (深度求索)杭州深度求索(DeepSeek)官方推出的AI助手,免费体验与全球领先AI模型的互动交流。它通过学习海量的数据和知识,能够像人类一样理解和处理信息。多项性能指标对齐海外顶尖模型,用更快的速度、更加全面强大的功能答疑解惑,助力高效美好的生活。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号