快速体验DeepSeek-V4-Pro模型
DeepSeek-V4-Pro是DeepSeek-V4系列的旗舰版本,采用混合专家(MoE)架构,拥有万亿级总参数与1M(百万 Token)超长上下文窗口。该模型在Agent能力、世界知识与推理性能上均实现开源领域领先:在Agentic Coding评测中达到当前开源模型最佳水平。您可通过该模型进行对话,代码编程等操作。本文以预置模型DeepSeek-V4-Pro的文本对话为例,指导您完成文本对话以及模型API调用。模型能力详情请参考模型列表。
准备账号和权限
- 已注册华为云账号,并进行实名认证。具体操作,请参见注册华为账号并开通华为云和实名认证。
- 已开通预置服务,或已创建接入点。具体操作,请参见开通预置服务或创建自定义接入点。
计费说明
在调用MaaS模型服务时,将根据实际使用的Tokens数量进行计费。详情请见模型服务计费项,未使用时不会产生费用。
获取API Key
在调用MaaS的模型服务时,需要填写API Key用于接口的鉴权认证。请创建新的API Key或使用已有API Key。
创建API Key:访问API Key管理页面,单击“创建API Key”,创建您的API Key。
约束限制
该功能仅支持“西南-贵阳一”区域。
开通预置模型服务
- 在MaaS控制台左侧导航栏,选择。
- 在“预置服务”页签,选择DeepSeek-V4-Pro模型服务单击操作列的“开通服务”。
- 在开通预置模型服务弹框,默认已勾选待开通的模型服务,确认并勾选“我已阅读并同意上述说明,及《MaaS 服务声明》”,单击“一键开通”。当模型服务的状态为开通,表示模型服务已开通。 图1 开通模型服务

API调用
支持以下语言调用大模型API。
- 检查Python版本:
在终端输入如下命令查看当前计算机环境是否安装了Python和pip。
python -V pip --version
以Windows的CMD为例:
图2 Windows查看Python版本
如果未安装Python,请前往Python官网下载Python包并安装,Python版本需要在3.8或以上版本。
- 安装requests库。
pip3 install requests
- 以DeepSeek-V4-Pro模型为例,运行如下命令发起API请求。可通过model参数替换模型,model参数详情请前往控制台查看预置模型操作列的“调用说明”。
import requests import json if __name__ == '__main__': url = "https://api.modelarts-maas.com/v2/chat/completions" # API地址 api_key = "MAAS_API_KEY" # 把MAAS_API_KEY替换成已获取的API Key # Send request. headers = { 'Content-Type': 'application/json', 'Authorization': f'Bearer {api_key}' } data = { "model": "deepseek-v4-pro", # model参数,您可按需更换模型参数 "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"} ] } response = requests.post(url, headers=headers, data=json.dumps(data), verify=False) # Print result. print(response.status_code) print(response.text)
以DeepSeek-V4-Pro模型为例,运行如下命令发起API请求。可通过model参数替换模型,model参数详情请前往控制台查看预置模型操作列的“调用说明”。
- Windows
curl -X POST "https://api.modelarts-maas.com/v2/chat/completions" ^ -H "Content-Type: application/json" ^ -H "Authorization: Bearer $MAAS_API_KEY" ^ -d '{ "model": "deepseek-v4-pro", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"} ] }' - Linux/macOS 在Terminal(终端)中执行如下命令:
curl -X POST "https://api.modelarts-maas.com/v2/chat/completions" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $MAAS_API_KEY" \ -d '{ "model": "deepseek-v4-pro", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"} ], "thinking": { "type": "enabled" } }'
- 安装OpenAI Python SDK。
pip install --upgrade "openai>=1.0"
- 以DeepSeek-V4-Pro模型为例,运行如下命令发起API请求。可通过model参数替换模型,model参数详情请前往控制台查看预置模型操作列的“调用说明”。
from openai import OpenAI import httpx base_url = "https://api.modelarts-maas.com/openai/v1" # API地址 api_key = "MAAS_API_KEY" # 把MAAS_API_KEY替换成已获取的API Key client = OpenAI(api_key=api_key, base_url=base_url, http_client=httpx.Client(verify=False)) response = client.chat.completions.create( model="deepseek-v4-pro", # model参数,您可按需更换模型参数 messages=[ {"role": "system", "content": "You are a helpful assistant"}, {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"}, ] ) print(response.choices[0].message.content)
模型回复预览:
public class BubbleSort {
/**
* 基础版冒泡排序(升序)
* @param arr 待排序的数组
*/
public static void bubbleSort(int[] arr) {
int n = arr.length;
// 外层循环:控制排序轮数,n 个元素需要 n-1 轮
for (int i = 0; i < n - 1; i++) {
// 内层循环:每轮将当前未排序区间的最大元素"冒泡"到末尾
// 已经排好序的元素不再参与比较,所以减去 i
for (int j = 0; j < n - 1 - i; j++) {
// 如果前一个元素大于后一个元素,则交换(升序)
if (arr[j] > arr[j + 1]) {
int temp = arr[j];
arr[j] = arr[j + 1];
arr[j + 1] = temp;
}
}
}
}
public static void main(String[] args) {
int[] arr = {64, 34, 25, 12, 22, 11, 90};
System.out.println("排序前:");
for (int num : arr) {
System.out.print(num + " ");
}
bubbleSort(arr);
System.out.println("\n排序后:");
for (int num : arr) {
System.out.print(num + " ");
}
}
} 在线体验
在DeepSeek-V4-Pro服务右侧的“操作”列,单击“在线体验”或,选择版本,跳转到“文本对话”页面,即可开始问答体验。更多信息,请参见在MaaS体验文本对话。
对于生成的内容,您可以在模型对话框左下方,单击图标复制回答,也可以单击图标重新生成回答。
如果您需要开启新对话,可以在页面右上角单击“开启新对话”,在对话框单击“确定”。开启新对话将清除全部对话,无法保留对话记录
| 参数 | 说明 | 取值样例 |
|---|---|---|
| 温度/Temperature | 设置推理温度,用于控制生成文本的随机性和创造性,Temperature数值越大随机性越大。
取值范围:0~2 默认值:不同模型的默认值不同,请以实际环境为准。 DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。 | 1.0 |
| 核采样/top_p | 设置推理核采样,用于调整输出文本的多样性。top_p数值越大,生成文本的多样性就越高。
取值范围:0.1~1 默认值:不同模型的默认值不同,请以实际环境为准。DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。 详细解释:top_p可以设置tokens候选列表的大小,将可能性之和刚好超过设定值P的top tokens列入候选名单,然后从候选名单中随机采样,生成一个token。 | 1.0 |
| top_k | 用于控制输出tokens的多样性。top_k值越大输出的tokens类型越丰富。选择在模型的输出结果中选择概率最高的前K个结果。
取值范围:1~1000 默认值:20 详细解释:top_k可以设置保留概率最高的前K个tokens,从中随机抽取一个token作为最终输出。这种方法可以限制输出序列的长度,并仍然保持样本的一定多样性。 | 20 |
| 参数 | 说明 | 取值样例 |
|---|---|---|
| 温度/Temperature | 设置推理温度,用于控制生成文本的随机性和创造性,Temperature数值越大随机性越大。
取值范围:0~2 默认值:不同模型的默认值不同,请以实际环境为准。DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。 | 1.0 |
| 核采样/top_p | 设置推理核采样,用于调整输出文本的多样性。top_p数值越大,生成文本的多样性就越高。
取值范围:0.1~1 默认值:不同模型的默认值不同,请以实际环境为准。DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。 详细解释:top_p可以设置tokens候选列表的大小,将可能性之和刚好超过设定值P的top tokens列入候选名单,然后从候选名单中随机采样,生成一个token。 | 1.0 |
| top_k | 用于控制输出tokens的多样性。top_k值越大输出的tokens类型越丰富。选择在模型的输出结果中选择概率最高的前K个结果。
取值范围:1~1000 默认值:20 详细解释:top_k可以设置保留概率最高的前K个tokens,从中随机抽取一个token作为最终输出。这种方法可以限制输出序列的长度,并仍然保持样本的一定多样性。 | 20 |
相关操作
现在您已完成DeepSeek-V4-Pro模型体验,可探索MaaS服务更多模型能力:
常见问题
- 创建API Key后需要等待多久才能生效?
MaaS API Key在创建后不会立即生效,通常需要等待几分钟才能生效。
- MaaS调用大模型API如何计费?
不同模型计费方式有所区别,详情请见模型服务价格。