GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列

心靈之曲
发布: 2025-07-03 13:40:21
原创
802人浏览过

GLM-4.1V-Thinking是什么

glm-4.1v-thinking是智谱ai推出的开源视觉语言模型,专为复杂认知任务设计,支持图像、视频、文档等多模态输入。模型在glm-4v架构基础上引入思维链推理机制,基于课程采样强化学习策略,系统性提升跨模态因果推理能力与稳定性。模型轻量版glm-4.1v-9b-thinking(glm-4.1v-9b-base基座模型和glm-4.1v-9b-thinking具备深度思考和推理能力)参数量控制在10b级别,在28项权威评测中,有23项达成10b级模型最佳成绩,其中18项持平或超越参数量高达72b的qwen-2.5-vl,展现出小体积模型的极限性能潜力。

GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列

GLM-4.1V-Thinking的主要功能

  • 图像理解:精准识别和分析图像内容,支持复杂的视觉任务,如目标检测、图像分类和视觉问答。
  • 视频处理:具备时序分析和事件逻辑建模能力,支持处理视频输入,进行视频理解、视频描述和视频问答。
  • 文档解析:支持处理文档中的图像和文本内容,支持长文档理解、图表理解和文档问答。
  • 数学与科学推理:支持复杂的数学题解、多步演绎和公式理解,能处理STEM领域的推理任务。
  • 逻辑推理:支持进行逻辑推理和因果分析,支持复杂的推理任务,如多步推理和逻辑判断。
  • 跨模态推理:合视觉和语言信息进行推理,支持图文理解、视觉问答和视觉锚定等任务。

GLM-4.1V-Thinking的技术原理

  • 架构设计:基于AIMv2Huge作为视觉编码器,处理和编码图像和视频输入。MLP适配器将视觉特征对齐到语言模型的token空间。语言解码器用GLM作为语言模型,处理多模态token并生成输出。
  • 训练方法:基于大规模的图像-文本对、学术文献和知识密集型数据进行预训练,构建强大的视觉语言基础模型。用长链推理(CoT)数据进行监督微调,提升模型的推理能力和人类对齐。基于课程采样强化学习(RLCS),动态选择最具信息量的样本进行训练,提升模型在多种任务上的性能。
  • 技术创新:引入思维链推理机制,让模型逐步思考生成详细的推理过程。基于课程采样策略,动态调整训练样本的难度,确保模型在不同阶段都能获得最有效的训练。基于2D-RoPE和3D-RoPE技术,支持任意分辨率和宽高比的图像输入,增强模型的时空理解能力。

GLM-4.1V-Thinking的性能表现

模型在MMStar、MMMU-Pro、ChartQAPro、OSWorld等28项权威评测中,有23项达成10B级模型的最佳成绩,其中18项持平或超越参数量高达72B的Qwen-2.5-VL。

GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列

GLM-4.1V-Thinking的项目地址

  • GitHub仓库:http://github.com/THUDM/GLM-4.1V-Thinking
  • HuggingFace模型库:http://huggingface.co/collections/THUDM/glm-41v-thinking-6862bbfc44593a8601c2578d
  • arXiv技术论文:http://arxiv.org/pdf/2507.01006v1
  • 在线体验Demohttp://huggingface.co/spaces/THUDM/GLM-4.1V-9B-Thinking-Demo

如何使用GLM-4.1V-Thinking

  • API接口
    • 注册账号:访问智谱AI开放平台,注册账号并登录。
    • 获取API Key:在平台上创建应用,获取专属的API Key。
    • 调用API:根据API文档,使用HTTP请求调用模型接口,发送输入数据并获取模型的输出结果。例如,使用Python调用API的代码示例:
<span>import</span> requests
<span>import</span> json

<span># 设置API接口地址和API Key</span>
api_url <span>=</span> <span>"http://api.zhipuopen.com/v1/glm-4.1v-thinking"</span>
api_key <span>=</span> <span>"your_api_key"</span>

<span># 准备输入数据</span>
input_data <span>=</span> <span>{</span>
    <span>"image"</span><span>:</span> <span>"image_url_or_base64_encoded_data"</span><span>,</span>
    <span>"text"</span><span>:</span> <span>"your_input_text"</span>
<span>}</span>

<span># 设置请求头</span>
headers <span>=</span> <span>{</span>
    <span>"Authorization"</span><span>:</span> <span><span>f"Bearer </span><span><span>{</span>api_key<span>}</span></span><span>"</span></span><span>,</span>
    <span>"Content-Type"</span><span>:</span> <span>"application/json"</span>
<span>}</span>

<span># 发送请求</span>
response <span>=</span> requests<span>.</span>post<span>(</span>api_url<span>,</span> headers<span>=</span>headers<span>,</span> data<span>=</span>json<span>.</span>dumps<span>(</span>input_data<span>)</span><span>)</span>

<span># 获取结果</span>
result <span>=</span> response<span>.</span>json<span>(</span><span>)</span>
<span>print</span><span>(</span>result<span>)</span>
登录后复制
  • 开源模型
    • 下载模型:访问Hugging Face,找到GLM-4.1V-Thinking模型页面,下载模型文件。
    • 加载模型:使用相应的深度学习框架(如PyTorch)加载模型。
    • 进行推理:将输入数据预处理后输入模型,获取模型的输出结果。例如,使用PyTorch加载模型并进行推理的代码示例:
<span>from</span> transformers <span>import</span> AutoModelForVision2Seq<span>,</span> AutoProcessor
<span>import</span> torch

<span># 加载模型和处理器</span>
model_name <span>=</span> <span>"THUDM/glm-4.1v-thinking"</span>
model <span>=</span> AutoModelForVision2Seq<span>.</span>from_pretrained<span>(</span>model_name<span>)</span>
processor <span>=</span> AutoProcessor<span>.</span>from_pretrained<span>(</span>model_name<span>)</span>

<span># 准备输入数据</span>
image_url <span>=</span> <span>"image_url_or_image_path"</span>
text <span>=</span> <span>"your_input_text"</span>
inputs <span>=</span> processor<span>(</span>images<span>=</span>image_url<span>,</span> text<span>=</span>text<span>,</span> return_tensors<span>=</span><span>"pt"</span><span>)</span>

<span># 进行推理</span>
<span>with</span> torch<span>.</span>no_grad<span>(</span><span>)</span><span>:</span>
    outputs <span>=</span> model<span>(</span><span>**</span>inputs<span>)</span>

<span># 获取结果</span>
result <span>=</span> processor<span>.</span>decode<span>(</span>outputs<span>.</span>logits<span>[</span><span>0</span><span>]</span><span>,</span> skip_special_tokens<span>=</span><span>True</span><span>)</span>
<span>print</span><span>(</span>result<span>)</span>
登录后复制
  • 在线体验平台
    • 访问体验链接:访问Hugging Face平台上的GLM-4.1V-Thinking体验页面。
    • 输入数据:在网页上上传图像或输入文本。
    • 获取结果:点击“运行”按钮,等待模型处理并查看结果。

GLM-4.1V-Thinking的应用场景

  • 教育辅导:辅助学生解决数学、科学等学科的复杂问题,提供详细解题步骤和推理过程,帮助学生更好地理解和掌握知识。
  • 内容创作:结合图像和文本生成创意内容,如广告文案、社交媒体帖子、新闻报道等,提升内容创作的效率和质量。
  • 智能交互:作为智能客服或虚拟助手,理解用户的问题和需求,提供准确、及时的回答和解决方案,支持多模态输入。
  • 行业应用:在医疗、金融、工业等领域,辅助专业人员进行数据分析、报告生成、设备监控等任务,提高工作效率和准确性。
  • 娱乐与生活:为旅游提供攻略和景点介绍,为美食推荐菜品和烹饪方法,为游戏生成剧情和任务设计,丰富用户的娱乐体验。

以上就是GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列的详细内容,更多请关注php中文网其它相关文章!

豆包AI编程
豆包AI编程

智能代码生成与优化,高效提升开发速度与质量!

下载
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号