Ollama怎么安装使用 Ollama本地运行大语言模型详细指南【教学】

幻夢星雲
发布: 2025-12-22 22:51:42
原创
698人浏览过
Ollama安装与使用需分五步:一、按系统下载安装包并验证版本;二、访问localhost:11434确认服务运行;三、执行ollama pull qwen2:7b并run启动交互;四、Docker方式部署支持GPU加速;五、配置OLLAMA_HOST实现局域网访问。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

ollama怎么安装使用 ollama本地运行大语言模型详细指南【教学】

如果您希望在本地运行大语言模型,但尚未安装Ollama或不清楚如何启动模型交互,则可能是由于缺少基础环境或未正确配置服务端口。以下是完成Ollama安装与基本使用的详细步骤:

一、根据操作系统选择安装方式

Ollama提供跨平台支持,不同系统需采用对应安装路径,确保命令行工具可识别ollama指令。

1、Windows用户访问https://ollama.com/download/OllamaSetup.exe,下载安装包后双击运行,全程点击“下一步”即可完成安装;

2、macOS用户前往https://ollama.com/download/Ollama-darwin.zip下载压缩包,解压后将Ollama拖入Applications文件夹,并在终端中执行sudo xattr -rd com.apple.quarantine /Applications/Ollama.app解除隔离;

3、Linux用户在终端中执行:curl -fsSL https://ollama.com/install.sh | sh,安装完成后启用服务:systemctl enable ollama && systemctl start ollama

4、所有系统安装完毕后,在终端或PowerShell中输入ollama --version,若返回版本号(如ollama version 0.11.6),表示安装成功。

二、验证服务是否正常运行

Ollama默认以系统服务形式监听本地端口,需确认其HTTP API服务已就绪,方可进行模型拉取与调用。

1、打开浏览器,访问http://localhost:11434

2、若页面显示"Ollama is running",说明服务已启动;

3、若无法访问,检查防火墙是否拦截11434端口,或在Linux/macOS中运行systemctl status ollama查看服务状态;

4、Windows用户可打开任务管理器,确认后台存在ollama.exe进程。

三、下载并运行首个大语言模型

模型下载通过Ollama内置仓库完成,无需手动处理GGUF文件,命令自动解析依赖并缓存至本地模型目录。

1、在终端中执行ollama pull qwen2:7b,该模型为中文优化、参数量适中的轻量级选项;

2、等待下载完成(约2–3GB,视网络而定),终端显示pull complete

星辰Agent
星辰Agent

科大讯飞推出的智能体Agent开发平台,助力开发者快速搭建生产级智能体

星辰Agent 404
查看详情 星辰Agent

3、立即运行交互式会话:ollama run qwen2:7b

4、输入任意中文问题(例如“今天北京天气如何?”),模型将在本地生成响应,全部数据不离开设备。

四、使用Docker方式部署(替代方案)

当主机系统受限或需与现有容器生态集成时,Docker部署可绕过本地服务冲突,且便于GPU资源调度。

1、确保已安装Docker Desktop或docker-ce;

2、拉取官方镜像:docker pull ollama/ollama

3、启动容器(CPU模式):docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama

4、如需启用NVIDIA GPU加速,添加--gpus all参数,并确认nvidia-container-toolkit已配置;

5、进入容器执行模型操作:docker exec -it ollama ollama run phi3:3.8b

五、配置局域网远程访问(可选进阶)

若需从手机、平板或其他局域网设备访问本机Ollama服务,必须修改监听地址并开放端口权限。

1、编辑服务配置文件:systemctl edit ollama.service(Linux/macOS)或修改Windows服务环境变量;

2、在[Service]区块下新增一行:Environment="OLLAMA_HOST=0.0.0.0:11434"

3、重载配置并重启服务:systemctl daemon-reload && systemctl restart ollama

4、在其他设备浏览器中输入本机IP加端口,例如http://192.168.1.100:11434,即可访问Web UI或调用API。

以上就是Ollama怎么安装使用 Ollama本地运行大语言模型详细指南【教学】的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号