MaaS标准API V2
约束限制
该功能仅支持“西南-贵阳一”区域。
接口信息
名称 | 说明 | 取值 |
|---|---|---|
API地址 | 调用模型服务的API地址。 | https://api.modelarts-maas.com/v2/chat/completions |
鉴权请求头 | 向服务器提供身份验证/授权凭证。 | "Authorization":"Bearer $MaaS_API_Key" |
支持模型
模型系列 | 模型名称 | 支持地域 | model参数值 |
|---|---|---|---|
DeepSeek | DeepSeek-V3 | 西南-贵阳一 | DeepSeek-V3 |
DeepSeek-R1-0528 | 西南-贵阳一 | deepseek-r1-250528 | |
DeepSeek-V3.1 | 西南-贵阳一 | deepseek-v3.1-terminus | |
DeepSeek-V3.2 | 西南-贵阳一 | deepseek-v3.2 | |
Kimi | Kimi-K2 | 西南-贵阳一 | Kimi-K2 |
LongCat | LongCat-Flash-Chat | 西南-贵阳一 | longcat-flash-chat |
Qwen3 | Qwen3-235B-A22B | 西南-贵阳一 | qwen3-235b-a22b |
Qwen3-32B | 西南-贵阳一 | qwen3-32b | |
Qwen3-30B-A3B | 西南-贵阳一 | qwen3-30b-a3b | |
Qwen3-Coder-480B-A35B-Instruct | 西南-贵阳一 | qwen3-coder-480b-a35b-instruct | |
GLM | GLM-5 | 西南-贵阳一 | glm-5 |
您可以登录MaaS控制台,在“模型广场”页面的模型详情页面,查看模型的详细信息。
请求参数说明
参数类别 | 参数 | 参数类型 | 是否必填 | 取值范围 | 说明 |
|---|---|---|---|---|---|
通用 | model | string | 是 | - | 用于生成内容的模型ID。model取值请参见支持模型。 默认值:不涉及。 |
messages | object[] | 是 | - | 对话组成的消息列表。不同模型支持不同类型的消息。 默认值:不涉及。 | |
系统消息 (System Message) | messages.role | string | 是 | system | 发送消息的角色。 默认值:不涉及。 |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
messages.content.type | string | 是 | text | 消息类型。 默认值:不涉及。 | |
messages.content.text | string | 是 | - | 文本消息部分的内容。 默认值:不涉及。 | |
用户消息 (User Message) | messages.role | string | 是 | user | 发送消息的角色。 默认值:不涉及。 |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
messages.content.type | string | 是 | text | 消息类型。 默认值:不涉及。 | |
messages.content.text | string | 是 | - | 文本消息部分的内容。 默认值:不涉及。 | |
模型答复消息 (Assistant Message) | messages.role | string | 是 | assistant | 发送消息的角色。 默认值:不涉及。 |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
messages.tool_calls | array | 否 | - | 历史对话中,模型回复的工具调用信息。 默认值:不涉及。 | |
messages.tool_calls.id | string | 是 | - | 调用的工具的ID。 默认值:不涉及。 | |
messages.tool_calls.type | string | 是 | function | 工具类型。 默认值:不涉及。 | |
messages.tool_calls.function | object | 是 | - | 模型调用工具对应的函数信息。 默认值:不涉及。 | |
messages.tool_calls.function.arguments | string | 是 | - | 模型生成的用于调用函数的JSON格式的参数。 默认值:不涉及。 | |
messages.tool_calls.function.name | string | 是 | - | 模型需要调用的函数名称。 默认值:不涉及。 | |
messages.prefix | boolean | 否 | - | 控制是否开启续写模式:用户提供assistant开头的消息,让模型基于该开头和输入指令来补全其余的部分。 使用该功能时,需确保messages列表里最后一条消息的role为assistant,并设置最后一条消息的prefix参数为True,示例如下: messages = [ {"role": "user", "content": "写一段python代码"}, {"role": "assistant", "content": "```python\n", "prefix": True} ] 默认值:false。 | |
工具消息 (Tool Message) | messages.role | string | 是 | tool | 发送消息的角色。 默认值:不涉及。 |
messages.tool_call_id | string | 是 | - | 模型调用的工具的ID。 默认值:不涉及。 | |
messages.content | string/object[] | 是 | - | 当前角色发出的消息内容。 默认值:不涉及。 | |
深度思考控制 | thinking | object | 否 | - | 控制模型是否开启或关闭深度思考模式。 默认值:不涉及。 |
thinking.type | string | 是 |
|
默认值:不同模型的默认值不同,详情请参见深度思考模型思考控制开关支持情况。 | |
模型输出行为配置 | max_completion_tokens | integer/null | 否 | 各个模型不同,详情请参见MaaS控制台模型详情页的最大输出长度和最大思维链长度。 | 控制模型输出的最大长度,包括两部分:模型回答(content部分)和模型思维链部分(reasoning_content)。 配置该参数后,模型输出的Token长度不会超过max_completion_tokens配置的值。
默认值:不涉及。 |
max_tokens | integer/null | 否 | 各个模型不同,详情请参见MaaS控制台模型详情页的最大输出长度。 | 模型回答最大长度,单位为Token。 默认值:4096。 | |
temperature | float/null | 否 | [0,2] | 采样温度,用于控制模型生成内容的随机性。 较高的值(如大于1)会使模型输出更加随机、发散、创造性高,而较低的值(如 0.1)会使输出更加集中确定、保守。 建议仅调整temperature或top_p其中之一,不建议两者都修改。 DeepSeek-V3和DeepSeek-R1-0528会对输入值做特殊处理:
默认值:DeepSeek-V3.2模型为1.0,其他模型为0.6。 | |
top_p | float/null | 否 | (0,1] | 核采样概率阈值,用于控制模型生成内容的多样性,和temperature参数类似,但原理不同,可以更精细地控制模型输出的词汇范围。 设置值接近0时,模型只从概率最高的极少数词中采样,输出非常保守、确定性强。设置值接近1时,则几乎不限制词库,输出更随机、更发散。 建议仅调整temperature或top_p其中之一,不建议两者都修改。 默认值:0.7。 | |
top_k | integer | 否 | ≥0 | 控制模型生成时每次只从概率最高的k个词里挑选,用来控制生成文本的随机性。取值越大,生成的随机性越高;取值越小,生成的确定性越高。 默认值:不涉及。 | |
frequency_penalty | number/null | 否 | [-2 , 2] | 频率惩罚系数,模型会根据新Token出现的频率进行惩罚。如果值为正,可以降低模型逐字重复的可能性。 默认值:0。 | |
presence_penalty | number/null | 否 | [-2,2] | 带深度思考能力模型不支持该字段。调整指定Token在模型输出内容中出现的概率。 输入为JSON对象,该对象将Token映射到一个范围为[-100, 100]的相关偏置值 。 值越小则可能性越低,越高则会增加选择的可能性。 默认值:0。 | |
logit_bias | map/null | 否 | - | 带深度思考能力模型不支持该字段。调整指定Token在模型输出内容中出现的概率,使模型生成的内容更加符合特定的偏好。 logit_bias字段接受一个map值,其中每个键为词表中的Token ID(使用tokenization接口获取),每个值为该Token的偏差值,取值范围为[-100,100]。
默认值:null。 | |
stream | boolean/null | 否 | - | 响应内容是否流式返回:
默认值:false。 | |
stream_options | object/null | 否 | - | 流式响应的选项。当stream为true时,可设置stream_options字段。 默认值:不涉及。 | |
stream_options.include_usage | boolean | 否 | - | 模型流式输出时,是否输出本次请求的Token用量信息。当前暂不支持关闭。 true:在data: [DONE]消息之前会返回一个额外chunk。此chunk中, usage字段中输出整个请求的Token用量,choices字段为空数组。 默认值:true。 | |
stop | string/string[]/null | 否 | null | 当模型遇到stop字段中所指定的字符串时将停止继续生成,这个字符本身也不会出现在响应中。最多支持4个字符串。stop token不会命中思维链中的Token,仅会命中正式回答content中的部分。 默认值:不涉及。 | |
工具调用 | tools | object[]/null | 否 | - | 待调用工具的列表。 默认值:不涉及。 |
tools.type | string | 是 | function | 工具类型。 默认值:不涉及。 | |
tools.function | object | 是 | function | 待调用的工具信息。 默认值:不涉及。 | |
tools.function.name | string | 是 | - | 调用的函数的名称。 默认值:不涉及。 | |
tools.function.description | string | 否 | - | 调用的函数的描述,模型会基于该描述判断当前任务是否需要使用该工具。 默认值:不涉及。 | |
tools.function.parameters | object | 否 | - | 函数请求参数,以JSON格式描述。示例如下: {
"type": "object",
"properties": {
"参数名": {
"type": "参数类型",
"description": "参数说明"
}
},
"required": ["必填参数"]
} parameters必须符合JSON规范。 默认值:不涉及。 | |
tool_choice | string/object | 否 |
| 控制模型调用工具的模式。
默认值:
| |
tool_choice.type | string | 是 | function | 调用的类型,此处应为function。 默认值:不涉及。 | |
tool_choice.name | string | 是 | - | 指定调用工具的名称。 默认值:不涉及。 |
响应参数说明(非流式)
参数 | 参数类型 | 说明 |
|---|---|---|
created | integer | 本次请求创建时间的Unix时间戳(秒)。 |
id | string | 本次请求的唯一标识。 |
model | string | 本次请求使用的模型ID。 |
object | string | 固定为chat.completion。 |
choices | object[] | 本次请求的模型响应内容。 |
choices.finish_reason | string | 模型停止生成的原因:
|
choices.index | integer | 当前元素在choices列表的索引。 |
choices.message | object | 模型输出的内容。 |
choices.message.role | string | 内容输出的角色。 |
choices.message.content | string | 模型生成的消息内容。 |
choices.message.reasoning_content | string/null | 模型生成的思维链内容,仅深度思考模型返回此字段。 |
choices.message.tool_calls | object[]/null | 模型生成的工具调用信息,触发了工具调用才会返回该参数。 |
choices.message.tool_calls.id | string | 调用的工具ID。 |
choices.message.tool_calls.type | string | 工具类型,当前仅支持function。 |
choices.message.tool_calls.function | object | 模型调用的函数。 |
choices.message.tool_calls.function.name | string | 模型调用的函数的名称。 |
choices.message.tool_calls.function.arguments | string | 模型生成的用于调用函数的JSON格式输入。 |
usage | object | 本次请求的Token用量信息。 |
usage.completion_tokens | integer | 模型输出内容花费的Token。 |
usage.prompt_tokens | integer | 输入给模型处理的内容Token数量。 |
usage.total_tokens | integer | 本次请求消耗的总Token数量(输入+输出)。 |
usage.completion_tokens_details | object | 模型输出消耗的Token详情。 |
usage.completion_tokens_details.reasoning_tokens | integer | 输出思维链内容消耗的Token数。 |
usage.prompt_tokens_details | object | 输入给模型的Token数量的细节。 |
usage.prompt_tokens_details.cached_tokens | integer | 缓存输入内容的Token用量。 |
响应参数说明(流式)
参数 | 参数类型 | 说明 |
|---|---|---|
created | integer | 本次请求创建时间的Unix时间戳(秒)。 |
id | string | 本次请求的唯一标识。 |
model | string | 本次请求使用的模型ID。 |
object | string | 固定为chat.completion.chunk。 |
choices | object[] | 本次请求的模型输出内容。 |
choices.finish_reason | string | 模型停止生成的原因:
|
choices.index | integer | 当前元素在choices列表的索引。 |
choices.delta | object | 模型输出的增量内容。 |
choices.delta.role | string | 内容输出的角色。 |
choices.delta.content | string | 模型生成的消息内容。 |
choices.delta.reasoning_content | string/null | 模型生成的思维链内容,仅深度思考模型返回此字段。 |
choices.delta.tool_calls | object[]/null | 模型生成的工具调用。 |
choices.delta.tool_calls.id | string | 调用的工具的ID。 |
choices.delta.tool_calls.type | string | 工具类型,当前仅支持function。 |
choices.delta.tool_calls.function | object | 模型调用的函数。 |
choices.delta.tool_calls.function.name | string | 模型调用的函数的名称。 |
choices.delta.tool_calls.function.arguments | string | 模型生成的用于调用函数的JSON格式输入。 |
usage | object | 本次请求的Token用量。 |
usage.completion_tokens | integer | 模型输出内容花费的Token。 |
usage.prompt_tokens | integer | 输入给模型处理的内容Token数量。 |
usage.total_tokens | integer | 本次请求消耗的总Token数量(输入 + 输出)。 |
usage.completion_tokens_details | object | 模型输出内容消耗的Token详情。 |
usage.completion_tokens_details.reasoning_tokens | integer | 输出思维链内容消耗的Token数。 |
usage.prompt_tokens_details | object | 输入给模型的Token数量的细节。 |
usage.prompt_tokens_details.cached_tokens | integer | 缓存输入内容的Token用量。 |
深度思考模型思考控制开关支持情况
模型名称 | thinking.type默认值 | thinking.type支持的取值 |
|---|---|---|
DeepSeek-R1-0528 | enabled | enabled |
DeepSeek-V3.1 | disabled |
|
DeepSeek-V3.2 | disabled |
|
Qwen3-235B-A22B | enabled |
|
Qwen3-32B | ||
Qwen3-30B-A3B | ||
Qwen3-Coder-480B-A35B-Instruct | ||
GLM-5 | enabled |
|
工具调用模型支持情况
模型名称 | 支持的tool choice |
|---|---|
DeepSeek-R1-0528 |
|
DeepSeek-V3 |
|
DeepSeek-V3.1 |
|
DeepSeek-V3.2 |
|
Kimi-K2 |
|
Qwen3-235B-A22B |
|
LongCat-Flash-Chat |
|
Qwen3-Coder-480B-A35B-Instruct |
|
GLM-5 |
|

