0

0

DeepSeek如何本地部署Ollama_在终端输入安装命令并配置模型文件

P粉602998670

P粉602998670

发布时间:2026-01-09 21:48:10

|

554人浏览过

|

来源于php中文网

原创

Ollama支持本地运行DeepSeek模型,步骤包括:一、安装Ollama并验证版本;二、拉取deepseek-coder或deepseek-llm等模型;三、通过Modelfile自定义模型配置;四、用ollama run交互运行或ollama serve启动API服务;五、用ollama ps和系统工具监控资源占用。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

deepseek如何本地部署ollama_在终端输入安装命令并配置模型文件

如果您希望在本地环境中运行DeepSeek模型,Ollama提供了一种轻量级的部署方式,通过终端命令即可完成安装与模型加载。以下是具体操作步骤:

一、安装Ollama

Ollama是一个专为本地大模型运行设计的开源工具,支持macOS、Linux和Windows(WSL)系统,无需复杂依赖即可启动模型服务。安装后将自动注册为系统服务,并提供命令行接口供后续调用。

1、访问Ollama官方下载页面:https://ollama.com/download

2、根据您的操作系统选择对应安装包:macOS用户下载.dmg文件并拖入Applications文件夹;Linux用户执行curl -fsSL https://ollama.com/install.sh | sh;Windows用户需先启用WSL2,再在WSL终端中运行安装脚本。

3、安装完成后,在终端输入ollama --version验证是否成功输出版本号。

二、拉取DeepSeek模型

Ollama模型库已收录多个DeepSeek系列模型,包括deepseek-coder和deepseek-llm等变体,可通过统一命名规范直接拉取。模型将自动下载至本地缓存目录并建立索引。

1、在终端中输入ollama pull deepseek-coder:6.7b以获取6.7B参数的代码专用版本。

2、如需更大规模模型,可改用ollama pull deepseek-llm:7bollama pull deepseek-llm:67b(后者需确保本地显存≥80GB且磁盘空间充足)。

3、执行ollama list确认模型状态显示为loaded,表示已就绪。

三、配置自定义模型文件(Modelfile方式)

若官方仓库未提供所需版本的DeepSeek模型,或需调整推理参数、添加系统提示词、更换tokenizer,可通过编写Modelfile构建自定义模型。该方式允许完全控制模型加载行为与运行环境。

1、创建空目录并在其中新建文件Modelfile,内容以FROM指令起始,例如:FROM /path/to/deepseek-llm-7b.Q4_K_M.gguf(路径需指向已下载的GGUF格式模型文件)。

DreamStudio
DreamStudio

SD兄弟产品!AI 图像生成器

下载

2、在Modelfile中添加参数配置行:PARAMETER num_ctx 4096设置上下文长度;PARAMETER stop ""定义停止符;TEMPLATE "{{.System}}user{{.Prompt}}assistant"设定对话模板。

3、保存后在该目录下运行ollama create my-deepseek -f Modelfile,构建名为my-deepseek的本地模型。

四、启动DeepSeek模型服务

Ollama默认以API服务形式运行模型,支持HTTP请求与交互式聊天两种模式。启动后模型驻留在内存中,响应速度取决于硬件配置与量化等级。

1、在终端输入ollama run deepseek-coder:6.7b进入交互式会话,输入问题后按回车即可获得响应。

2、如需后台启动API服务,执行ollama serve,服务将监听http://127.0.0.1:11434端口

3、使用curl测试接口:curl http://localhost:11434/api/chat -d '{"model":"deepseek-coder:6.7b","messages":[{"role":"user","content":"写一个Python函数计算斐波那契数列"}], "stream":false}'

五、验证模型运行状态与资源占用

模型加载后需确认其实际运行效果及系统资源分配是否合理,避免因显存溢出或CPU过载导致响应失败。Ollama内置监控机制可辅助定位性能瓶颈。

1、运行ollama ps查看当前活跃模型进程,检查STATUS列为runningGPU_LAYERS值非零(如启用CUDA)。

2、在Linux/macOS中执行nvidia-smi(NVIDIA GPU)或htop观察GPU显存与CPU使用率;Windows用户可在任务管理器“性能”页签中查看GPU引擎负载。

3、若出现out of memory错误,请立即停止服务并切换至更低精度的GGUF模型(如Q2_K或Q3_K),或通过OLLAMA_NUM_GPU=0环境变量强制启用纯CPU推理。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

744

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

634

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

757

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

617

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1259

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

577

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

705

2023.08.11

c++主流开发框架汇总
c++主流开发框架汇总

本专题整合了c++开发框架推荐,阅读专题下面的文章了解更多详细内容。

25

2026.01.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PostgreSQL 教程
PostgreSQL 教程

共48课时 | 6.9万人学习

Git 教程
Git 教程

共21课时 | 2.6万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号