在2025 年的 ai 技术界,来自深度的求索推出的 deepseek 正在掀起一场风暴。这款 ai 大模型自 1 月 11 日上线以来,其强劲的性能堪比 openai 的 o1 正式版 deepseek-r1,引发了广泛轰动,甚至撼动了 chatgpt 的市场地位和全球 ai 格局。php小编香蕉将带您深入了解 deepseek 的性能、应用和对 ai 产业的影响,为您揭示这一革命性技术背后的故事。
然而,DeepSeek因频繁遭受网络攻击和访问量过大,导致用户经常遇到“服务器繁忙”提示,影响使用体验。
解决方法之一是本地部署DeepSeek大模型。虽然此方法对电脑配置要求较高,普通用户可能只能部署性能较低的版本,但对于要求不高且对信息时效性要求不高的用户来说,仍然是一个可行的选择。以下步骤将指导您完成DeepSeek本地部署:
第一步:安装Ollama
Ollama是一个开源框架,允许您在本地运行大型语言模型。访问Ollama官网 (https://www.php.cn/link/838dc9de386130f83f625a98d1ea561f) 下载适合您系统的版本并安装。安装完成后,将出现一个命令行界面,Ollama本身没有图形界面。
第二步:下载DeepSeek-R1模型
访问Ollama模型库 (https://www.php.cn/link/838dc9de386130f83f625a98d1ea561flibrary/deepseek-r1),选择合适的模型版本(例如1.5b版本),复制其下载命令。
DeepSeek-R1模型规格参考:
将复制的命令粘贴到Ollama命令行中运行,下载速度取决于您的网络连接。下载完成后,命令行会显示“success”。
输入“ollama list”命令查看已下载的模型。 如果显示模型列表,则表示下载成功。
然后,在命令行输入 ollama run deepseek-r1:1.5b+你的问题 (或 ollama run deepseek-r1:7b+你的问题 ,取决于您下载的模型版本)即可开始对话。
为了提升使用体验,建议使用第三方AI客户端。
第三步:使用Cherry Studio调用模型
下载并安装Cherry Studio (https://www.php.cn/link/09a11be6989d5a0e438dd9e589210a79)。在设置中选择“Ollama”,API地址会自动填充。点击“管理”,添加您已下载的DeepSeek-R1模型。
最后,在Cherry Studio的对话界面选择DeepSeek-R1模型即可开始使用。
通过以上步骤,您便可在本地运行DeepSeek大模型,享受更稳定流畅的AI体验。
以上就是DeepSeek本地部署保姆级教程分享的详细内容,更多请关注php中文网其它相关文章!
DeepSeek (深度求索)杭州深度求索(DeepSeek)官方推出的AI助手,免费体验与全球领先AI模型的互动交流。它通过学习海量的数据和知识,能够像人类一样理解和处理信息。多项性能指标对齐海外顶尖模型,用更快的速度、更加全面强大的功能答疑解惑,助力高效美好的生活。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号