需主动启用深度思考能力:API调用时设enable_thinking为true并传入extra_body;网页或钉钉端可插入标签触发思考机制。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您在使用通义千问时希望模型在回复前进行更严谨的逻辑推演与多步推理,则需主动启用其深度思考能力。以下是实现该功能的具体路径与操作方式:
一、通过API调用启用enable_thinking参数
Qwen3系列模型支持通过enable_thinking参数控制是否开启深度思考,该参数为布尔值,默认为false(关闭)。设为true后,模型将在生成最终回答前输出结构化推理过程,并将思考内容置于reasoning_content字段中,而最终答案保留在content字段。
1、准备有效的API密钥及请求头,确保授权凭证格式为Bearer bce-v3/ALTAK-*********/614fb**********。
2、构造JSON请求体,在extra_body中显式传入{"enable_thinking": true}参数。
3、指定兼容模型名称,例如"qwen3-235b-a22b"或"qwen3-32b"等Qwen3全系支持型号。
4、发起POST请求至https://qianfan.baidubce.com/v2/chat/completions端点。
二、在网页端或钉钉内注入空白think提示
当无法修改API参数时,可通过预置提示词干预模型行为:向输入消息中插入空的标签,可触发模型识别为“思考已完成”,从而跳过自主思考阶段;反之,若注入含实质内容的块,则模型将据此展开对应推理路径。
1、在通义千问官网对话框中,于用户提问前手动添加。
2、保持后续提问语句结构完整,避免与think标签内容产生歧义冲突。
3、提交后观察响应是否包含分步骤推理链,确认reasoning_content字段是否存在并具逻辑连贯性。
三、本地部署环境下启用命令行思考指令
对于采用Ollama等工具本地运行Qwen3模型的用户,可通过运行时参数直接激活深度推理流程,无需修改模型权重或配置文件。
1、确认已拉取支持深度思考的Qwen3量化版本,如qwen3:32b-instruct-q4_k_m。
2、在终端执行命令:ollama run qwen3:32b-instruct-q4_k_m --think。
3、启动后输入自然语言问题,模型将自动进入带中间步骤的响应模式。
4、若需退出该模式,关闭当前会话并重新运行不带--think参数的命令即可。
四、通过钉钉插件切换思考强度等级
在钉钉内置通义千问插件中,系统提供可视化思考强度调节入口,允许用户在“快速响应”与“深度推演”之间即时切换,底层仍调用相同Qwen3模型但应用不同推理策略。
1、打开钉钉APP,进入任意聊天窗口,点击输入框右侧的“+”号。
2、选择“通义千问”插件,点击右上角齿轮图标进入设置页。
3、在“推理模式”选项中,将滑块拖动至深度推演位置。
4、返回对话界面后,所有新发送的问题均默认启用多轮自我质疑与反事实验证机制。
五、禁用非兼容参数以保障思考稳定性
启用深度思考时,部分采样参数将被强制忽略,若错误配置可能干扰推理一致性。必须确保请求中未设置以下字段:temperature、top_p、presence_penalty、frequency_penalty、logprobs、top_logprobs。
1、检查API请求体,删除所有含"temperature"、"top_p"等键名的键值对。
2、若使用SDK封装调用,查阅文档确认其是否自动注入默认采样参数,必要时覆写为空字典。
3、验证响应头部中X-Qwen-Reasoning-Mode字段值是否为enabled,以此确认深度思考已实际生效。











