文档首页/
AI开发平台ModelArts/
最佳实践/
LLM大语言模型推理/
主流开源大模型基于Lite Server适配Ascend-vLLM框架NPU推理指导/
推理关键特性使用/
Reasoning Outputs
更新时间:2025-11-04 GMT+08:00
Reasoning Outputs
使用场景
支持DeepSeek R1,Qwen3 系列等思考模型,这些模型会生成包含推理步骤和最终结论的输出。Reasoning Outputs能力可以在输出中返回一个附加字段reasoning_content,其中包含导致最终结论的思考过程和推理步骤。
支持模型
|
型号系列 |
解析器名称 |
|---|---|
|
DeepSeek R1 系列 |
deepseek_r1 |
|
QwQ-32B 型 |
deepseek_r1 |
|
Qwen3 系列 |
qwen3 |
约束限制
Reasoning Outputs功能仅适用于OpenAI的/v1/chat/completions接口。
启动Reasoning Outputs功能
在启动推理服务时添加如下命令。
--enable-reasoning --reasoning-parser xxx
注:XXX为与模型适配的reasoning parser的名称。
关闭模型思维链输出
当前仅Qwen3系列模型支持在发起推理请求时,通过增加模板参数: "enable_thinking": false 的方式来关闭思维链,请求体示例如下:
{
"model": "Qwen3-8B",
"chat_template_kwargs": {
"enable_thinking": false
},
"messages": [
{
"role": "user",
"content": "你好"
}
],
"temperature": 0,
"stream": false
}
取消max token参数对Reasoning Content的限制
Ascend-vLLM支持在启动推理服务之前通过设置环境变量的方式,打开或者关闭“取消max token对reasoning content的限制”的能力,环境变量使用示例如下:
export ENABLE_MAX_TOKENS_EXCLUDE_REASONING=1
- 不设置此环境变量或者环境变量值设置为0时,max token参数会控制并截断reasoning content字段返回的长度,此行为与社区保持一致;
- 此环境变量值设置为1时,max token不控制和截断reasoning content字段内容,只控制content字段返回的长度;
父主题: 推理关键特性使用