更新时间:2024-08-17 GMT+08:00
分享

在Notebook调试环境中部署推理服务

在ModelArts的开发环境Notebook中可以部署推理服务进行调试。

Step1 准备Notebook

参考准备Notebook完成Notebook的创建,并打开Notebook。

Step2 准备权重文件

将OBS中的模型权重上传到Notebook的工作目录/home/ma-user/work/下。上传代码参考如下。
import moxing as mox

obs_dir = "obs://${bucket_name}/${folder-name}"
local_dir = "/home/ma-user/work/qwen-14b"

mox.file.copy_parallel(obs_dir, local_dir)
实际操作如下图所示。
图1 上传OBS文件到Notebook的代码示例

Step3 启动推理服务

  1. 配置需要使用的NPU卡为容器中的第几张卡。例如:实际使用的是容器中第1张卡,此处填写“0”。
    export ASCEND_RT_VISIBLE_DEVICES=0

    如果启动服务需要使用多张卡,则按容器中的卡号依次编排。例如:实际使用的是容器中第1张和第2张卡,此处填写为“0,1”,以此类推。

    export ASCEND_RT_VISIBLE_DEVICES=0,1
    通过命令npu-smi info查询NPU卡为容器中的第几张卡。例如下图查询出两张卡,若希望使用第一和第二张卡,则“export ASCEND_RT_VISIBLE_DEVICES=0,1”,注意编号不是填4、5。
    图2 查询结果
  2. 配置环境变量。
    export DEFER_DECODE=1 
    # 是否使用推理与Token解码并行;默认值为1表示开启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。
    
    export DEFER_MS=10
    # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得当次Token解码能与下一次模型推理并行计算,从而减少总推理时延。该参数需要设置环境变量DEFER_DECODE=1才能生效。
    
    export USE_VOCAB_PARALLEL=1
    # 是否使用词表并行;默认值为1表示开启并行,取值为0表示关闭并行。对于词表较小的模型(如llama2系模型),关闭并行可以减少推理时延,对于词表较大的模型(如qwen系模型),开启并行可以减少显存占用,以提升推理吞吐量。
    
    export USE_PFA_HIGH_PRECISION_MODE=1
    # PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。
  3. 如果需要增加模型量化功能,启动推理服务前,先参考推理模型量化章节对模型做量化处理。
  4. 启动服务与请求。此处提供vLLM服务API接口启动和OpenAI服务API接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html

    以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/latest/getting_started/quickstart.html#offline-batched-inference

    • 通过vLLM服务API接口启动服务

      在ascend_vllm目录下通过vLLM服务API接口启动服务,具体操作命令如下,API Server的命令相关参数说明如下,可以根据参数说明修改配置。

      python -m vllm.entrypoints.api_server --model="${model_path}" \
      --max-num-seqs=256 \
      --max-model-len=4096 \
      --max-num-batched-tokens=4096 \
      --dtype=float16 \
      --tensor-parallel-size=1 \
      --block-size=128 \
      --host=${docker_ip} \
      --port=8080 \
      --gpu-memory-utilization=0.9 \
      --trust-remote-code
    • 通过OpenAI服务API接口启动服务

      在ascend_vllm目录下通OpenAI服务API接口启动服务,具体操作命令如下,可以根据参数说明修改配置。

      python -m vllm.entrypoints.openai.api_server --model ${model_path} \
      --max-num-seqs=256 \
      --max-model-len=4096 \
      --max-num-batched-tokens=4096 \
      --dtype=float16 \
      --tensor-parallel-size=1 \
      --block-size=128 \
      --host=${docker_ip} \
      --port=8080 \
      --gpu-memory-utilization=0.9 \
      --trust-remote-code 
    具体参数说明如下:
    • --model ${model_path}:模型地址,模型格式是HuggingFace的目录格式。即Step2 准备权重文件上传的HuggingFace权重文件存放目录。如果使用了量化功能,则使用推理模型量化章节转换后的权重。
    • --max-num-seqs:最大同时处理的请求数,超过后拒绝访问。
    • --max-model-len:推理时最大输入+最大输出tokens数量,输入超过该数量会直接返回。max-model-len的值必须小于config.json文件中的"seq_length"的值,否则推理预测会报错。config.json存在模型对应的路径下,例如:/home/ma-user/work/chatglm3-6b/config.json。
    • --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。
    • --dtype:模型推理的数据类型。支持FP16和BF16数据类型推理。float16表示FP16,bfloat16表示BF16。
    • --tensor-parallel-size:模型并行数。取值需要和启动的NPU卡数保持一致,可以参考1。此处举例为1,表示使用单卡启动服务。
    • --block-size:PagedAttention的block大小,推荐设置为128。
    • --host=${docker_ip}:服务部署的IP,${docker_ip}替换为宿主机实际的IP地址。
    • --port:服务部署的端口。
    • --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。
    • --trust-remote-code:是否相信远程代码。
    • --distributed-executor-backend:多卡推理启动后端,可选值为"ray"或者"mp",其中"ray"表示使用ray进行启动多卡推理,"mp"表示使用python多进程进行启动多卡推理。默认使用"mp"后端启动多卡推理。
    高阶参数说明:
    • --enable-prefix-caching:如果prompt的公共前缀较长或者多轮对话场景下推荐使用prefix-caching特性。在推理服务启动启动脚本中添加此参数表示使用,不添加表示不使用。
    • --quantization:推理量化参数。当使用量化功能,则在推理服务启动脚本中增加该参数,若未使用量化功能,则无需配置。根据使用的量化方式配置,可选择awqsmoothquant方式。
    • --speculative-model ${container_draft_model_path}:投机草稿模型地址,模型格式是HuggingFace的目录格式。即Step2 准备权重文件上传的HuggingFace权重文件存放目录。投机草稿模型为与--model入参同系列,但是权重参数远小于--model指定的模型。若未使用投机推理功能,则无需配置。
    • --num-speculative-tokens:投机推理小模型每次推理的token数。若未使用投机推理功能,则无需配置。参数--num-speculative-tokens需要和--speculative-model ${container_draft_model_path}同时使用。

    服务启动后,会打印如下类似信息。

    server launch time cost: 15.443044185638428 s
    INFO:     Started server process [2878]
    INFO:     Waiting for application startup.
    INFO:     Application startup complete.
    INFO:     Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)

Step4 请求推理服务

另外启动一个terminal,使用命令测试推理服务是否正常启动,端口请修改为启动服务时指定的端口。

  • 方式一:使用vLLM接口请求服务,命令参考如下。
    curl -X POST http://localhost:8080/generate \
    -H "Content-Type: application/json" \
    -d '{
            "prompt": "hello",
            "max_tokens": 100,
            "temperature": 0,
            "ignore_eos": false,
            "presence_penalty":2
     }'

    vLLM接口请求参数说明参考:https://docs.vllm.ai/en/stable/dev/sampling_params.html

  • 方式二:使用OpenAI接口请求服务,命令参考如下。
    curl -X POST http://localhost:8080/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "${model_path}",
        "messages": [
            {
                "role": "user",
                "content": "hello"
            }
        ],
        "max_tokens": 100,
        "top_k": -1,
        "top_p": 1,
        "temperature": 0,
        "ignore_eos": false,
        "stream": false
    }'
    表1 请求服务参数说明

    参数

    是否必选

    默认值

    参数类型

    描述

    model

    Str

    通过OpenAI服务API接口启动服务时,推理请求必须填写此参数。取值必须和启动推理服务时的model ${model_path}参数保持一致。

    通过vLLM服务API接口启动服务时,推理请求不涉及此参数。

    prompt

    -

    Str

    请求输入的问题。

    max_tokens

    16

    Int

    每个输出序列要生成的最大tokens数量。

    top_k

    -1

    Int

    控制要考虑的前几个tokens的数量的整数。设置为-1表示考虑所有tokens。

    适当降低该值可以减少采样时间。

    top_p

    1.0

    Float

    控制要考虑的前几个tokens的累积概率的浮点数。必须在 (0, 1] 范围内。设置为1表示考虑所有tokens。

    temperature

    1.0

    Float

    控制采样的随机性的浮点数。较低的值使模型更加确定性,较高的值使模型更加随机。0表示贪婪采样。

    stop

    None

    None/Str/List

    用于停止生成的字符串列表。返回的输出将不包含停止字符串。

    例如:["你","好"],生成文本时遇到"你"或者"好"将停止文本生成。

    stream

    False

    Bool

    是否开启流式推理。默认为False,表示不开启流式推理。

    n

    1

    Int

    返回多条正常结果。

    约束与限制:

    不使用beam_search场景下,n取值建议为1≤n≤10。如果n>1时,必须确保不使用greedy_sample采样。也就是top_k > 1; temperature > 0。

    使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。

    说明:

    n建议取值不超过10,n值过大会导致性能劣化,显存不足时,推理请求会失败。

    use_beam_search

    False

    Bool

    是否使用beam_search替换采样。

    约束与限制:使用该参数时,如下参数需按要求设置:

    n>1

    top_p = 1.0

    top_k = -1

    temperature = 0.0

    presence_penalty

    0.0

    Float

    presence_penalty表示会根据当前生成的文本中新出现的词语进行奖惩。取值范围[-2.0,2.0]。

    frequency_penalty

    0.0

    Float

    frequency_penalty会根据当前生成的文本中各个词语的出现频率进行奖惩。取值范围[-2.0,2.0]。

    length_penalty

    1.0

    Float

    length_penalty表示在beam search过程中,对于较长的序列,模型会给予较大的惩罚。

    如果要使用length_penalty,必须添加如下三个参数,并且需将use_beam_search参数设置为true,best_of参数设置大于1,top_k固定为-1。

    "top_k": -1

    "use_beam_search":true

    "best_of":2

    ignore_eos

    False

    Bool

    ignore_eos表示是否忽略EOS并且继续生成token。

    guided_json

    None

    Union[str, dict, BaseModel]

    使用openai启动服务,若需要使用JSON Schema时要配置guided_json参数。

    JSON Schema使用专门的关键字来描述数据结构,例如标题title、 类型type、属性properties,必需属性required 、定义definitions等,JSON Schema通过定义对象属性、类型、格式的方式来引导模型生成一个包含用户信息的JSON对象。

    若希望使用JSON Schema,guided_json的写法可参考outlines: Structured Text Generation中的“Efficient JSON generation following a JSON Schema”样例,如下图所示。

    图3 guided_json样例
    若想在发送的请求中包含上述guided_json架构,可参考以下代码。如果prompt未提供充足信息可能导致返回的json文件部分结果为空。
    curl -X POST http://${docker_ip}:8080/v1/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "${container_model_path}",
        "prompt": "Meet our valorous character, named Knight, who has reached the age of 32. Clad in impenetrable plate armor, Knight is well-prepared for any battle. Armed with a trusty sword and boasting a strength score of 90, this character stands as a formidable warrior on the field.Please provide details for this character, including their Name, Age, preferred Armor, Weapon, and Strength",
        "max_tokens": 200,
        "temperature": 0,
        "guided_json": "{\"title\": \"Character\", \"type\": \"object\", \"properties\": {\"name\": {\"title\": \"Name\", \"maxLength\": 10, \"type\": \"string\"}, \"age\": {\"title\": \"Age\", \"type\": \"integer\"}, \"armor\": {\"$ref\": \"#/definitions/Armor\"}, \"weapon\": {\"$ref\": \"#/definitions/Weapon\"}, \"strength\": {\"title\": \"Strength\", \"type\": \"integer\"}}, \"required\": [\"name\", \"age\", \"armor\", \"weapon\", \"strength\"], \"definitions\": {\"Armor\": {\"title\": \"Armor\", \"description\": \"An enumeration.\", \"enum\": [\"leather\", \"chainmail\", \"plate\"], \"type\": \"string\"}, \"Weapon\": {\"title\": \"Weapon\", \"description\": \"An enumeration.\", \"enum\": [\"sword\", \"axe\", \"mace\", \"spear\", \"bow\", \"crossbow\"], \"type\": \"string\"}}}"
    }'

Step5 推理性能和精度测试

推理性能和精度测试操作请参见推理性能测试推理精度测试

附录:基于vLLM(v0.3.2)不同模型推理支持的max-model-len长度说明

基于vLLM(v0.5.0)部署推理服务时,不同模型推理支持的max-model-len长度说明如下面的表格所示。如需达到以下值,需要将--gpu-memory-utilization设为0.9。

表2 不同模型推理支持的max-model-len长度

模型名

280T

313T

最小卡数

最大序列(K)

最小卡数

最大序列(K)

llama-7b

1

16

1

32

llama-13b

2

16

1

16

llama-65b

8

16

4

16

llama2-7b

1

16

1

32

llama2-13b

2

16

1

16

llama2-70b

8

32

4

64

llama3-8b

1

32

1

128

llama3-70b

8

32

4

64

qwen-7b

1

8

1

32

qwen-14b

2

16

1

16

qwen-72b

8

8

4

16

qwen1.5-0.5b

1

128

1

256

qwen1.5-7b

1

8

1

32

qwen1.5-1.8b

1

64

1

128

qwen1.5-14b

2

16

1

16

qwen1.5-32b

4

32

2

64

qwen1.5-72b

8

8

4

16

qwen1.5-110b

oom

8

128

qwen2-0.5b

1

128

1

256

qwen2-1.5b

1

64

1

128

qwen2-7b

1

32

1

64

qwen2-72b

8

32

4

64

chatglm2-6b

1

64

1

128

chatglm3-6b

1

64

1

128

glm-4-9b

1

32

1

128

baichuan-7b

1

16

1

32

baichuan-13b

2

4

1

4

baichuan2-7b

1

8

1

32

baichuan2-13b

2

4

1

4

yi-6b

1

64

1

128

yi-9b

1

32

1

64

yi-34b

4

32

2

64

deepseek-llm-7b

1

16

1

32

deepseek-coder-instruct-33b

4

32

2

64

deepseek-llm-67b

8

32

4

64

mistral-7b

1

32

1

128

mixtral-8x7b

4

8

2

32

gemma-2b

1

64

1

128

gemma-7b

1

8

1

32

说明:机器型号规格以卡数*显存大小为单位,如4*64GB代表4张64GB显存的NPU卡。

相关文档