OpenAI兼容接口
约束限制
该功能仅支持“西南-贵阳一”区域。
接口信息
名称 | 说明 | 取值 |
|---|---|---|
API地址 | 调用模型服务的API地址。 | https://api.modelarts-maas.com/openai/v1/chat/completions 如果使用OpenAI SDK,base_url设置为https://api.modelarts-maas.com/openai/v1。 |
鉴权请求头 | 向服务器提供身份验证/授权凭证。 | "Authorization":"Bearer $MaaS_API_Key" |
支持模型
模型系列 | 模型名称 | 支持地域 | model参数值 |
|---|---|---|---|
DeepSeek | DeepSeek-V3 | 西南-贵阳一 | DeepSeek-V3 |
DeepSeek-R1-0528 | 西南-贵阳一 | deepseek-r1-250528 | |
DeepSeek-V3.1 | 西南-贵阳一 | deepseek-v3.1-terminus | |
DeepSeek-V3.2 | 西南-贵阳一 | deepseek-v3.2 | |
Kimi | Kimi-K2 | 西南-贵阳一 | Kimi-K2 |
LongCat | LongCat-Flash-Chat | 西南-贵阳一 | longcat-flash-chat |
Qwen3 | Qwen3-235B-A22B | 西南-贵阳一 | qwen3-235b-a22b |
Qwen3-32B | 西南-贵阳一 | qwen3-32b | |
Qwen3-30B-A3B | 西南-贵阳一 | qwen3-30b-a3b | |
Qwen3-Coder-480B-A35B-Instruct | 西南-贵阳一 | qwen3-coder-480b-a35b-instruct | |
GLM | GLM-5 | 西南-贵阳一 | glm-5 |
您可以登录MaaS控制台,在“模型广场”页面的模型详情页面,查看模型的详细信息。
请求参数说明
参数类别 | 参数 | 参数类型 | 是否必填 | 取值范围 | 说明 |
|---|---|---|---|---|---|
通用 | model | string | 是 | - | 用于生成内容的模型ID。 默认值:不涉及。 |
messages | object[] | 是 | - | 对话组成的消息列表。不同模型支持不同类型的消息。 默认值:不涉及。 | |
系统消息 (System Message) | messages.role | string | 是 | system | 发送消息的角色。 默认值:不涉及。 |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
messages.content.type | string | 是 | text | 消息类型。 默认值:不涉及。 | |
messages.content.text | string | 是 | - | 文本消息部分的内容。 默认值:不涉及。 | |
用户消息 (User Message) | messages.role | string | 是 | user | 发送消息的角色。 默认值:不涉及。 |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
messages.content.type | string | 是 | text | 消息类型。 默认值:不涉及。 | |
messages.content.text | string | 是 | - | 文本消息部分的内容。 默认值:不涉及。 | |
模型答复消息 (Assistant Message) | messages.role | string | 是 | assistant | 发送消息的角色。 默认值:不涉及。 |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
messages.tool_calls | array | 否 | - | 历史对话中,模型回复的工具调用信息。 默认值:不涉及。 | |
messages.tool_calls.id | string | 是 | - | 调用的工具的ID。 默认值:不涉及。 | |
messages.tool_calls.type | string | 是 | function | 工具类型。 默认值:不涉及。 | |
messages.tool_calls.function | object | 是 | - | 模型调用工具对应的函数信息。 默认值:不涉及。 | |
messages.tool_calls.function.arguments | string | 是 | - | 模型生成的用于调用函数的JSON格式的参数。 默认值:不涉及。 | |
messages.tool_calls.function.name | string | 是 | - | 模型需要调用的函数名称。 默认值:不涉及。 | |
工具消息 (Tool Message) | messages.role | string | 是 | tool | 发送消息的角色。 默认值:不涉及。 |
messages.tool_call_id | string | 是 | - | 模型调用的工具的ID。 默认值:不涉及。 | |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
深度思考控制 | chat_template_kwargs | dict[str, Any] | 否 | - | 传递给模板渲染器的额外关键字参数,可用于控制模型是否开启深度思考模式。详情请参见深度思考模型思考控制开关支持情况。 默认值:不涉及。 |
模型输出行为配置 | max_tokens | integer/null | 否 | 各个模型不同,详情请参见MaaS控制台模型详情页的最大输出长度和最大思维链长度。 | 控制模型输出的最大长度,包括两部分:模型回答(content部分)和模型思维链部分(reasoning_content)。 配置了该参数后,模型输出的Token长度不会超过max_completion_tokens配置的值。 默认值:8K。 |
continue_final_message | boolean | 否 | - | 是否开启前缀续写。 开启该功能时,需要将continue_final_message设置为False,否则会报错。 默认值:False。 | |
add_generation_prompt | boolean | 否 | - | 如果为True,生成Prompt将被添加到聊天模板中。这是模型tokenizer配置中chat template使用的一个参数。 该参数与continue_final_message互斥,不可同时设置为True,否则会报错。 默认值:True。 | |
temperature | float/null | 否 | [0, 2] | 采样温度,用于控制模型生成内容的随机性。 较高的值(如大于1)会使模型输出更加随机、发散、创造性高,而较低的值(如 0.1)会使输出更加集中确定、保守。 建议仅调整temperature或top_p其中之一,不建议两者都修改。 默认值:1.0。 | |
top_p | float/null | 否 | (0,1] | 核采样概率阈值,用于控制模型生成内容的多样性,和temperature参数类似,但原理不同,可以更精细地控制模型输出的词汇范围。 设置值接近0时,模型只从概率最高的极少数词中采样,输出非常保守、确定性强。设置值接近1时,则几乎不限制词库,输出更随机、更发散。 建议仅调整temperature或top_p其中之一,不建议两者都修改。 默认值:0.7。 | |
top_k | integer | 否 | ≥0 | 控制模型生成时每次只从概率最高的k个词里挑选,用来控制生成文本的随机性。 取值越大,生成的随机性越高;取值越小,生成的确定性越高。 默认值:20。 | |
frequency_penalty | number/null | 否 | [-2,2] | 频率惩罚系数,模型会根据新Token出现的频率进行惩罚。如果值为正,可以降低模型逐字重复的可能性。 默认值:0。 | |
presence_penalty | number/null | 否 | [-2,2] | 存在惩罚系数,模型会根据新Token截止目前是否已出现对其进行惩罚。如果值为正,会增加模型生成新内容的可能性。 默认值:0。 | |
logit_bias | map/null | 否 | - | 带深度思考能力模型不支持该字段。调整指定Token在模型输出内容中出现的概率。输入为JSON对象,该对象将Token映射到一个范围为[-100, 100]的相关偏置值 。 值越小则可能性越低,越高则会增加选择的可能性。 默认值:null。 | |
stream | boolean/null | 否 | - | 响应内容是否流式返回:
默认值:false。 | |
stream_options | object/null | 否 | - | 流式响应的选项。当stream为true时,可设置stream_options字段。 默认值:不涉及。 | |
stream_options.include_usage | boolean | 否 | - | 模型流式输出时,是否在输出结束前输出本次请求的token用量信息,当前暂不支持关闭。 | |
stop | string / string[] / null | 否 | null | 当模型遇到stop字段中所指定的字符串时将停止继续生成,这个字符本身也不会出现在响应中。最多支持4个字符串。stop token不会命中思维链中的Token,仅会命中正式回答content中的部分。 默认值:不涉及。 | |
工具调用 | tools | object[]/null | 否 | - | 待调用工具的列表,模型返回信息中可包含。当您需要让模型返回待调用工具时,需要配置该结构体。 默认值:不涉及。 |
tools.type | string | 是 | function | 工具类型。 默认值:不涉及。 | |
tools.function | object | 是 | function | 模型返回中可包含待调用的工具。 默认值:不涉及。 | |
tools.function.name | string | 是 | - | 调用的函数的名称。 默认值:不涉及。 | |
tools.function.description | string | 否 | - | 调用的函数的描述,模型会基于该描述判断当前任务是否需要使用该工具。 默认值:不涉及。 | |
tools.function.parameters | object | 否 | - | 函数请求参数,以JSON格式描述。示例如下: {
"type": "object",
"properties": {
"参数名": {
"type": "string | number | boolean | object | array",
"description": "参数说明"
}
},
"required": ["必填参数"]
} parameters必须符合JSON规范。 默认值:不涉及。 | |
tool_choice | string/object | 否 |
| 控制模型调用工具的模式。
默认值:auto。 | |
tool_choice.type | string | 是 | function | 调用的类型,此处应为function。 默认值:不涉及。 | |
tool_choice.name | string | 是 | - | 指定调用工具的名称。 默认值:不涉及。 |
响应参数说明(非流式)
参数 | 参数类型 | 说明 |
|---|---|---|
created | integer | 本次请求创建时间的Unix时间戳(秒)。 |
id | string | 本次请求的唯一标识。 |
model | string | 本次请求使用的模型ID。 |
object | string | 固定为chat.completion。 |
choices | object[] | 本次请求的模型输出内容。 |
choices.finish_reason | string | 模型停止生成的原因:
|
choices.index | integer | 当前元素在choices列表的索引。 |
choices.message | object | 模型输出的内容。 |
choices.message.role | string | 内容输出的角色。 |
choices.message.content | string | 模型生成的消息内容。 |
choices.message.reasoning_content | string/null | 模型生成的思维链内容,仅深度思考模型返回此字段。 |
choices.message.tool_calls | object[]/null | 模型生成的工具调用信息,触发了工具调用才会返回该参数。 |
choices.message.tool_calls.id | string | 调用的工具的ID。 |
choices.message.tool_calls.type | string | 工具类型,当前仅支持function。 |
choices.message.tool_calls.function | object | 模型调用的函数。 |
choices.message.tool_calls.function.name | string | 模型调用的函数的名称。 |
choices.message.tool_calls.function.arguments | string | 模型生成的用于调用函数的JSON格式输入。 |
choices.logprobs | object/null | 当前内容的对数概率信息。 |
usage | object | 本次请求的Token用量。 |
usage.completion_tokens | integer | 模型输出内容消耗的Token。 |
usage.prompt_tokens | integer | 输入给模型处理的内容Token数量。 |
usage.total_tokens | integer | 本次请求消耗的总Token数量(输入+输出)。 |
响应参数说明(流式)
参数 | 参数类型 | 说明 |
|---|---|---|
created | integer | 本次请求创建时间的Unix时间戳(秒)。 |
id | string | 本次请求的唯一标识。 |
model | string | 本次请求实际使用的模型名称和版本。 |
object | string | 固定为chat.completion.chunk。 |
choices | object[] | 本次请求的模型输出内容。 |
choices.finish_reason | string | 模型停止生成Token的原因。取值范围:
|
choices.index | integer | 当前元素在choices列表的索引。 |
choices.delta | object | 模型输出的增量内容。 |
choices.delta.role | string | 内容输出的角色。 |
choices.delta.content | string | 模型生成的消息内容。 |
choices.delta.reasoning_content | string/null | 模型处理问题的思维链内容。 |
choices.delta.tool_calls | object[]/null | 模型生成的工具调用。 |
choices.message.tool_calls.id | string | 调用的工具的ID。 |
choices.message.tool_calls.type | string | 工具类型,当前仅支持function。 |
choices.message.tool_calls.function | object | 模型调用的函数。 |
choices.message.tool_calls.function.name | string | 模型调用的函数的名称。 |
choices.message.tool_calls.function.arguments | string | 模型生成的用于调用函数的参数,格式为JSON。 模型并不总是生成有效的JSON,并且可能会虚构出一些您的函数参数规范中未定义的参数。在调用函数之前,请在您的代码中验证这些参数是否有效。 |
choices.logprobs | object/null | 当前内容的对数概率信息。 |
usage | object | 本次请求的Token用量。 |
usage.completion_tokens | integer | 模型输出内容花费的Token。 |
usage.prompt_tokens | integer | 输入给模型处理的内容Token数量。 |
usage.total_tokens | integer | 本次请求消耗的总Token数量(输入+输出)。 |
深度思考模型思考控制开关支持情况
模型名称 | 默认模式 | 思考控制开关 |
|---|---|---|
DeepSeek-R1-0528 | 深度思考 | 不支持关闭。 |
DeepSeek-V3.1 | 非思考 | "chat_template_kwargs": {"thinking": True} |
DeepSeek-V3.2 | 非思考 | "chat_template_kwargs": {"thinking": True} |
Qwen3-235B-A22B | 深度思考 | "chat_template_kwargs": {"enable_thinking": True} |
Qwen3-32B | ||
Qwen3-30B-A3B | ||
GLM-5 | 深度思考 | "chat_template_kwargs": {"thinking": True} |
工具调用模型支持情况
模型名称 | 支持的tool choice |
|---|---|
DeepSeek-R1-0528 |
|
DeepSeek-V3 |
|
DeepSeek-V3.1 |
|
DeepSeek-V3.2 |
|
Qwen3-235B-A22B |
|
Qwen3-Coder-480B-A35B-Instruct |
|
GLM-5 |
|

