总结
豆包 AI 助手文章总结

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间

看不見的法師
发布: 2025-04-26 12:40:14
原创
732人浏览过

分享一个简便的方法,将 chatglm2-6b 模型快速部署到 huggingface space 在线空间。

01—

在文章《终于部署成功!GPU 云环境搭建 ChatGLM2-6B 坎坷路》中,使用线上云算力资源成功部署了 ChatGLM2-6B 模型,并在最后显示了一行提示:

“This share link expires in 72 hours. For free permanent hosting and GPU upgrades, run gradio deploy from Terminal to deploy to Spaces (https://www.php.cn/link/4b58db5ec33af76c6d9b968cf2c633b1)”

这意味着:“此共享链接将在72小时后过期。为了获得永久的托管和GPU升级,请在终端中运行 gradio deploy 命令,将其部署到 Huggingface 的空间。”

打开命令终端,尝试将模型部署到 Huggingface。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间系统提示需要登录到 huggingface_hub 的 token。

访问 Hugging Face 网站,点击个人账户设置(Profile)。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间在左侧菜单中找到“Access Tokens”,然后点击“New token”。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间我的账户已经创建了一个 token,可以参考《没有硬件资源?免费使用Colab搭建你自己的Stable Diffusion在线模型!保姆级教程》,直接复制使用。

将 token 粘贴到终端窗口,对于询问“Add token as git credential? (Y/n)”,输入“Y”。等待了一段时间后,系统提示:

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间虽然屏幕上显示了很多信息,但关键的信息只有两个:“Connection aborted.” 和 “Connection reset by peer”。

回想之前部署时,帮助文档中提到了 Huggingface:

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间估计是无法直接连接了,该怎么办?

02—经过一番思考,我打开了我的PHP中文网账号,咬咬牙,购买了一个月的硅谷云服务器。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间通过终端登录,克隆 ChatGLM2-6B 仓库,然后执行 gradio deploy 命令。

出乎意料的是,同样遇到了连接错误。看来即使服务器地址不同,依然执行了相同的网络策略。真是让人沮丧!

虽然部署看起来简单,只需要一行命令,但因为网络连接问题,进展陷入了僵局。

询问 ChatGLM,看看是否有好的解决方案。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间ChatGLM2-6B 的建议似乎很合理,国产之光,ChatGPT 国内的替代品名副其实。有兴趣的朋友可以查看 ChatGLM2-6B 的初体验。

最后想到,既然是执行发布命令,连接到 Huggingface Space 空间进行操作,那么将仓库克隆到本地电脑(有代理),再执行发布命令,是不是可行?

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间这个方案成功了,命令行下执行完 git 克隆命令,输入 token 后,顺利进入下一步。部署命令 “gradio deploy” 将在 Huggingface 上创建你的仓库空间:

Creating new Spaces Repo in '/Users/huangyong/Documents/ChatGLM2-6B'

请记住,在回答后续问题时,除了硬件配置以外,其他都可以回车采用默认值。

Enter Spaces hardware (cpu-basic, cpu-upgrade, t4-small, t4-medium, a10g-small, a10g-large, a100-large) [cpu-basic]:

这里需要输入:t4-medium,才能让 ChatGLM2-6B 运行起来。

(查看 ChatGLM-6B 官方文档,有量化模型的设置,猜测可以让更少的硬件也能运行起来,但我没有仔细研究。)

第一次运行时,我按了回车,选择了默认的 cpu-basic 硬件配置,结果模型无法运行。

如果直接输入:t4-medium,系统会提示需要添加一个支付方式:You must add a payment method to your account。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间当时我没有关注这条提示信息,直接使用基本配置 cpu-basic 进行部署,结果失败了。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间RuntimeError:Found no NVIDIA driver。

如果硬件配置选择 t4-small,会卡在第5个 Checkpoint。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间没有任何错误提示,也卡在这里让我郁闷了很久。最后猜测是不是硬件资源中内存不够,将空间升级到 medium 后,就能顺利运行了。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间启动后,点击右上角的:“App”。

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间Huggingface Space 提供一个永久的空间地址供访问:

https://www.php.cn/link/4b58db5ec33af76c6d9b968cf2c633b1/foghuang/ChatGLM2-6B

在 Space 上还有很多有趣的,使用人工智能模型的应用,大家有兴趣可以点开试用。像下面的第一个就是文本和语音互转的应用。

https://www.php.cn/link/4b58db5ec33af76c6d9b968cf2c633b1

快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间03—Huggingface Space 部署总结:

注册 Huggingface 账号;添加 token;添加支付方式,国内借记卡和信用卡均可;确保能访问 Huggingface 的环境;默认情况下,硬件最小配置选择: t4-medium;启动成功后,点击 space 的 App,可以看到运行界面;Huggingface 提供永久地址,可以让应用被外部用户访问。

以上就是快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
豆包 AI 助手文章总结
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号