Ollama安装与使用需分五步:一、按系统下载安装包并验证版本;二、访问localhost:11434确认服务运行;三、执行ollama pull qwen2:7b并run启动交互;四、Docker方式部署支持GPU加速;五、配置OLLAMA_HOST实现局域网访问。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地运行大语言模型,但尚未安装Ollama或不清楚如何启动模型交互,则可能是由于缺少基础环境或未正确配置服务端口。以下是完成Ollama安装与基本使用的详细步骤:
Ollama提供跨平台支持,不同系统需采用对应安装路径,确保命令行工具可识别ollama指令。
1、Windows用户访问https://ollama.com/download/OllamaSetup.exe,下载安装包后双击运行,全程点击“下一步”即可完成安装;
2、macOS用户前往https://ollama.com/download/Ollama-darwin.zip下载压缩包,解压后将Ollama拖入Applications文件夹,并在终端中执行sudo xattr -rd com.apple.quarantine /Applications/Ollama.app解除隔离;
3、Linux用户在终端中执行:curl -fsSL https://ollama.com/install.sh | sh,安装完成后启用服务:systemctl enable ollama && systemctl start ollama;
4、所有系统安装完毕后,在终端或PowerShell中输入ollama --version,若返回版本号(如ollama version 0.11.6),表示安装成功。
Ollama默认以系统服务形式监听本地端口,需确认其HTTP API服务已就绪,方可进行模型拉取与调用。
1、打开浏览器,访问http://localhost:11434;
2、若页面显示"Ollama is running",说明服务已启动;
3、若无法访问,检查防火墙是否拦截11434端口,或在Linux/macOS中运行systemctl status ollama查看服务状态;
4、Windows用户可打开任务管理器,确认后台存在ollama.exe进程。
模型下载通过Ollama内置仓库完成,无需手动处理GGUF文件,命令自动解析依赖并缓存至本地模型目录。
1、在终端中执行ollama pull qwen2:7b,该模型为中文优化、参数量适中的轻量级选项;
2、等待下载完成(约2–3GB,视网络而定),终端显示pull complete;
3、立即运行交互式会话:ollama run qwen2:7b;
4、输入任意中文问题(例如“今天北京天气如何?”),模型将在本地生成响应,全部数据不离开设备。
当主机系统受限或需与现有容器生态集成时,Docker部署可绕过本地服务冲突,且便于GPU资源调度。
1、确保已安装Docker Desktop或docker-ce;
2、拉取官方镜像:docker pull ollama/ollama;
3、启动容器(CPU模式):docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama;
4、如需启用NVIDIA GPU加速,添加--gpus all参数,并确认nvidia-container-toolkit已配置;
5、进入容器执行模型操作:docker exec -it ollama ollama run phi3:3.8b。
若需从手机、平板或其他局域网设备访问本机Ollama服务,必须修改监听地址并开放端口权限。
1、编辑服务配置文件:systemctl edit ollama.service(Linux/macOS)或修改Windows服务环境变量;
2、在[Service]区块下新增一行:Environment="OLLAMA_HOST=0.0.0.0:11434";
3、重载配置并重启服务:systemctl daemon-reload && systemctl restart ollama;
4、在其他设备浏览器中输入本机IP加端口,例如http://192.168.1.100:11434,即可访问Web UI或调用API。
以上就是Ollama怎么安装使用 Ollama本地运行大语言模型详细指南【教学】的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号