更新时间:2026-05-11 GMT+08:00
分享

快速体验DeepSeek-V4-Pro模型

DeepSeek-V4-Pro是DeepSeek-V4系列的旗舰版本,采用混合专家(MoE)架构,拥有万亿级总参数与1M(百万 Token)超长上下文窗口。该模型在Agent能力、世界知识与推理性能上均实现开源领域领先:在Agentic Coding评测中达到当前开源模型最佳水平。您可通过该模型进行对话,代码编程等操作。本文以预置模型DeepSeek-V4-Pro的文本对话为例,指导您完成文本对话以及模型API调用。模型能力详情请参考模型列表

准备账号和权限

计费说明

在调用MaaS模型服务时,将根据实际使用的Tokens数量进行计费。详情请见模型服务计费项,未使用时不会产生费用。

获取API Key

在调用MaaS的模型服务时,需要填写API Key用于接口的鉴权认证。请创建新的API Key或使用已有API Key。

创建API Key:访问API Key管理页面,单击“创建API Key”,创建您的API Key。

约束限制

该功能仅支持“西南-贵阳一”区域。

开通预置模型服务

  1. MaaS控制台左侧导航栏,选择模型推理 > 在线推理
  2. “预置服务”页签,选择DeepSeek-V4-Pro模型服务单击操作列的“开通服务”
  3. 在开通预置模型服务弹框,默认已勾选待开通的模型服务,确认并勾选“我已阅读并同意上述说明,及《MaaS 服务声明》”,单击“一键开通”。当模型服务的状态为开通,表示模型服务已开通。
    图1 开通模型服务

API调用

支持以下语言调用大模型API。

  1. 检查Python版本:

    在终端输入如下命令查看当前计算机环境是否安装了Python和pip。

    python -V
    pip --version

    以Windows的CMD为例:

    图2 Windows查看Python版本

    如果未安装Python,请前往Python官网下载Python包并安装,Python版本需要在3.8或以上版本。

  2. 安装requests库。
    pip3 install requests
  3. 以DeepSeek-V4-Pro模型为例,运行如下命令发起API请求。可通过model参数替换模型,model参数详情请前往控制台查看预置模型操作列的“调用说明”
    import requests
    import json
    
    if __name__ == '__main__':
        url = "https://api.modelarts-maas.com/v2/chat/completions"  # API地址
        api_key = "MAAS_API_KEY"  # 把MAAS_API_KEY替换成已获取的API Key
    
        # Send request.
        headers = {
            'Content-Type': 'application/json',
            'Authorization': f'Bearer {api_key}'
        }
        data = {
            "model": "deepseek-v4-pro",  # model参数,您可按需更换模型参数
            "messages": [
                {"role": "system", "content": "You are a helpful assistant."},
                {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"}
            ]
        }
        response = requests.post(url, headers=headers, data=json.dumps(data), verify=False)
    
        # Print result.
        print(response.status_code)
        print(response.text)

以DeepSeek-V4-Pro模型为例,运行如下命令发起API请求。可通过model参数替换模型,model参数详情请前往控制台查看预置模型操作列的“调用说明”

  • Windows

    在CMD(命令提示符)中执行如下命令:

    curl -X POST "https://api.modelarts-maas.com/v2/chat/completions" ^
      -H "Content-Type: application/json" ^
      -H "Authorization: Bearer $MAAS_API_KEY" ^
      -d '{
        "model": "deepseek-v4-pro",
        "messages": [
          {"role": "system", "content": "You are a helpful assistant."},
          {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"}
        ]
      }'

  • Linux/macOS
    在Terminal(终端)中执行如下命令:
    curl -X POST "https://api.modelarts-maas.com/v2/chat/completions" \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $MAAS_API_KEY" \
      -d '{
        "model": "deepseek-v4-pro",
        "messages": [
          {"role": "system", "content": "You are a helpful assistant."},
          {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"}
        ],
         "thinking": {
           "type": "enabled"
         }
      }'
  1. 安装OpenAI Python SDK。
    pip install --upgrade "openai>=1.0"
  2. 以DeepSeek-V4-Pro模型为例,运行如下命令发起API请求。可通过model参数替换模型,model参数详情请前往控制台查看预置模型操作列的“调用说明”
    from openai import OpenAI
    import httpx
    
    base_url = "https://api.modelarts-maas.com/openai/v1"  # API地址
    api_key = "MAAS_API_KEY"  # 把MAAS_API_KEY替换成已获取的API Key
    
    
    client = OpenAI(api_key=api_key, base_url=base_url, http_client=httpx.Client(verify=False))
    
    response = client.chat.completions.create(
        model="deepseek-v4-pro",  # model参数,您可按需更换模型参数
        messages=[
            {"role": "system", "content": "You are a helpful assistant"},
            {"role": "user", "content": "请输出基础版冒泡排序算法的Java代码"},
        ]
    )
    
    print(response.choices[0].message.content)

模型回复预览:

public class BubbleSort {

    /**
     * 基础版冒泡排序(升序)
     * @param arr 待排序的数组
     */
    public static void bubbleSort(int[] arr) {
        int n = arr.length;

        // 外层循环:控制排序轮数,n 个元素需要 n-1 轮
        for (int i = 0; i < n - 1; i++) {

            // 内层循环:每轮将当前未排序区间的最大元素"冒泡"到末尾
            // 已经排好序的元素不再参与比较,所以减去 i
            for (int j = 0; j < n - 1 - i; j++) {

                // 如果前一个元素大于后一个元素,则交换(升序)
                if (arr[j] > arr[j + 1]) {
                    int temp = arr[j];
                    arr[j] = arr[j + 1];
                    arr[j + 1] = temp;
                }
            }
        }
    }

    public static void main(String[] args) {
        int[] arr = {64, 34, 25, 12, 22, 11, 90};

        System.out.println("排序前:");
        for (int num : arr) {
            System.out.print(num + " ");
        }

        bubbleSort(arr);

        System.out.println("\n排序后:");
        for (int num : arr) {
            System.out.print(num + " ");
        }
    }
}

在线体验

在DeepSeek-V4-Pro服务右侧的“操作”列,单击“在线体验”更多 > 在线体验,选择版本,跳转到“文本对话”页面,即可开始问答体验。更多信息,请参见在MaaS体验文本对话

对于生成的内容,您可以在模型对话框左下方,单击图标复制回答,也可以单击图标重新生成回答。

如果您需要开启新对话,可以在页面右上角单击“开启新对话”,在对话框单击“确定”。开启新对话将清除全部对话,无法保留对话记录

您还可以在页面左上方,单击“模型参数”,按需拖动或直接输入数值配置推理参数,获得更好的推理效果。单击“恢复默认”可以将参数值调回默认值。
图3 设置推理参数
表1 参数设置

参数

说明

取值样例

温度/Temperature

设置推理温度,用于控制生成文本的随机性和创造性,Temperature数值越大随机性越大。

  • 数值较低,输出结果更加集中和确定。
  • 数值较高,输出结果更加随机,更有创意性。

取值范围:0~2

默认值:不同模型的默认值不同,请以实际环境为准。

DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。

1.0

核采样/top_p

设置推理核采样,用于调整输出文本的多样性。top_p数值越大,生成文本的多样性就越高。

  • 数值较低,输出可选的tokens类型越少,更有确定性。
  • 数值较高,输出可选的tokens类型越多,更有多样性。

取值范围:0.1~1

默认值:不同模型的默认值不同,请以实际环境为准。DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。

详细解释:top_p可以设置tokens候选列表的大小,将可能性之和刚好超过设定值P的top tokens列入候选名单,然后从候选名单中随机采样,生成一个token。

1.0

top_k

用于控制输出tokens的多样性。top_k值越大输出的tokens类型越丰富。选择在模型的输出结果中选择概率最高的前K个结果。

  • 数值较低,输出可选的tokens类型越少,更有确定性。
  • 数值较高,输出可选的tokens类型越多,更有多样性。

取值范围:1~1000

默认值:20

详细解释:top_k可以设置保留概率最高的前K个tokens,从中随机抽取一个token作为最终输出。这种方法可以限制输出序列的长度,并仍然保持样本的一定多样性。

20

表2 参数设置

参数

说明

取值样例

温度/Temperature

设置推理温度,用于控制生成文本的随机性和创造性,Temperature数值越大随机性越大。

  • 数值较低,输出结果更加集中和确定。
  • 数值较高,输出结果更加随机,更有创意性。

取值范围:0~2

默认值:不同模型的默认值不同,请以实际环境为准。DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。

1.0

核采样/top_p

设置推理核采样,用于调整输出文本的多样性。top_p数值越大,生成文本的多样性就越高。

  • 数值较低,输出可选的tokens类型越少,更有确定性。
  • 数值较高,输出可选的tokens类型越多,更有多样性。

取值范围:0.1~1

默认值:不同模型的默认值不同,请以实际环境为准。DeepSeek-V4-Pro:思考模式下,无论用户输入值多少均为1.0。

详细解释:top_p可以设置tokens候选列表的大小,将可能性之和刚好超过设定值P的top tokens列入候选名单,然后从候选名单中随机采样,生成一个token。

1.0

top_k

用于控制输出tokens的多样性。top_k值越大输出的tokens类型越丰富。选择在模型的输出结果中选择概率最高的前K个结果。

  • 数值较低,输出可选的tokens类型越少,更有确定性。
  • 数值较高,输出可选的tokens类型越多,更有多样性。

取值范围:1~1000

默认值:20

详细解释:top_k可以设置保留概率最高的前K个tokens,从中随机抽取一个token作为最终输出。这种方法可以限制输出序列的长度,并仍然保持样本的一定多样性。

20

相关操作

现在您已完成DeepSeek-V4-Pro模型体验,可探索MaaS服务更多模型能力:

  • 查看更多模型:本章节示例代码以DeepSeek-V4-Pro模型为例,MaaS还支持DeepSeek、千问、Kimi等更多第三方模型,支持的模型及其对应的API参考请见API调用规范
  • 在线体验大模型:如果你想通过对话框与大模型互动,请前往模型体验页面进行模型体验。

常见问题

  • 创建API Key后需要等待多久才能生效?

    MaaS API Key在创建后不会立即生效,通常需要等待几分钟才能生效。

  • MaaS调用大模型API如何计费?

    不同模型计费方式有所区别,详情请见模型服务价格

相关文档