Ollama支持本地运行DeepSeek模型,步骤包括:一、安装Ollama并验证版本;二、拉取deepseek-coder或deepseek-llm等模型;三、通过Modelfile自定义模型配置;四、用ollama run交互运行或ollama serve启动API服务;五、用ollama ps和系统工具监控资源占用。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地环境中运行DeepSeek模型,Ollama提供了一种轻量级的部署方式,通过终端命令即可完成安装与模型加载。以下是具体操作步骤:
一、安装Ollama
Ollama是一个专为本地大模型运行设计的开源工具,支持macOS、Linux和Windows(WSL)系统,无需复杂依赖即可启动模型服务。安装后将自动注册为系统服务,并提供命令行接口供后续调用。
1、访问Ollama官方下载页面:https://ollama.com/download
2、根据您的操作系统选择对应安装包:macOS用户下载.dmg文件并拖入Applications文件夹;Linux用户执行curl -fsSL https://ollama.com/install.sh | sh;Windows用户需先启用WSL2,再在WSL终端中运行安装脚本。
3、安装完成后,在终端输入ollama --version验证是否成功输出版本号。
二、拉取DeepSeek模型
Ollama模型库已收录多个DeepSeek系列模型,包括deepseek-coder和deepseek-llm等变体,可通过统一命名规范直接拉取。模型将自动下载至本地缓存目录并建立索引。
1、在终端中输入ollama pull deepseek-coder:6.7b以获取6.7B参数的代码专用版本。
2、如需更大规模模型,可改用ollama pull deepseek-llm:7b或ollama pull deepseek-llm:67b(后者需确保本地显存≥80GB且磁盘空间充足)。
3、执行ollama list确认模型状态显示为loaded,表示已就绪。
三、配置自定义模型文件(Modelfile方式)
若官方仓库未提供所需版本的DeepSeek模型,或需调整推理参数、添加系统提示词、更换tokenizer,可通过编写Modelfile构建自定义模型。该方式允许完全控制模型加载行为与运行环境。
1、创建空目录并在其中新建文件Modelfile,内容以FROM指令起始,例如:FROM /path/to/deepseek-llm-7b.Q4_K_M.gguf(路径需指向已下载的GGUF格式模型文件)。
2、在Modelfile中添加参数配置行:PARAMETER num_ctx 4096设置上下文长度;PARAMETER stop ""定义停止符;TEMPLATE "{{.System}}user{{.Prompt}}assistant"设定对话模板。
3、保存后在该目录下运行ollama create my-deepseek -f Modelfile,构建名为my-deepseek的本地模型。
四、启动DeepSeek模型服务
Ollama默认以API服务形式运行模型,支持HTTP请求与交互式聊天两种模式。启动后模型驻留在内存中,响应速度取决于硬件配置与量化等级。
1、在终端输入ollama run deepseek-coder:6.7b进入交互式会话,输入问题后按回车即可获得响应。
2、如需后台启动API服务,执行ollama serve,服务将监听http://127.0.0.1:11434端口。
3、使用curl测试接口:curl http://localhost:11434/api/chat -d '{"model":"deepseek-coder:6.7b","messages":[{"role":"user","content":"写一个Python函数计算斐波那契数列"}], "stream":false}'。
五、验证模型运行状态与资源占用
模型加载后需确认其实际运行效果及系统资源分配是否合理,避免因显存溢出或CPU过载导致响应失败。Ollama内置监控机制可辅助定位性能瓶颈。
1、运行ollama ps查看当前活跃模型进程,检查STATUS列为running且GPU_LAYERS值非零(如启用CUDA)。
2、在Linux/macOS中执行nvidia-smi(NVIDIA GPU)或htop观察GPU显存与CPU使用率;Windows用户可在任务管理器“性能”页签中查看GPU引擎负载。
3、若出现out of memory错误,请立即停止服务并切换至更低精度的GGUF模型(如Q2_K或Q3_K),或通过OLLAMA_NUM_GPU=0环境变量强制启用纯CPU推理。











