更新时间:2024-11-21 GMT+08:00
分享

部署推理服务

本章节介绍如何使用vLLM 0.6.0框架部署并启动推理服务。

前提条件

  • 已准备好Lite k8s Cluster环境,具体参考准备环境。推荐使用“西南-贵阳一”Region上的Cluster和昇腾Snt9b资源。
  • 安装过程需要连接互联网git clone,确保集群可以访问公网。

Step1 上传权重文件

将权重文件上传到集群节点机器中。权重文件的格式要求为Huggingface格式。开源权重文件获取地址请参见支持的模型列表和权重文件

如果使用模型训练后的权重文件进行推理,模型训练及训练后的权重文件转换操作可以参考相关文档章节中提供的模型训练文档。

Step2 配置pod

在节点自定义目录${node_path}下创建config.yaml文件
apiVersion: apps/v1
kind: Deployment
metadata:
  name: yourapp
  labels:
      app: infers
spec:
  replicas: 1
  selector:
    matchLabels:
      app: infers
  template:
    metadata: 
      labels:
         app: infers
    spec:
      schedulerName: volcano
      nodeSelector:
        accelerator/huawei-npu: ascend-1980
      containers:
      - image: ${image_name}                  # 推理镜像名称
        imagePullPolicy: IfNotPresent
        name: ${container_name}
        securityContext:
          runAsUser: 0
        ports:
        - containerPort: 8080
        command: ["/bin/bash", "-c"]
        args: ["${node-path}/run_vllm.sh"]          # 节点自定义目录,该目录下包含pod配置文件config.yaml和推理服务启动脚本run_vllm.sh
        resources:
          requests:
            huawei.com/ascend-1980: "8"             # 需求卡数,key保持不变。
          limits:
            huawei.com/ascend-1980: "8"             # 限制卡数,key保持不变。
        volumeMounts:                             # 容器内部映射路径
        - name: ascend-driver               #驱动挂载,保持不动
          mountPath: /usr/local/Ascend/driver
        - name: ascend-add-ons           #驱动挂载,保持不动
          mountPath: /usr/local/Ascend/add-ons
        - name: hccn                             #驱动hccn配置,保持不动
          mountPath: /etc/hccn.conf
        - name: localtime                       
          mountPath: /etc/localtime
        - name: npu-smi                             # npu-smi
          mountPath: /usr/local/sbin/npu-smi
        - name: model-path                       # 模型权重路径
          mountPath: ${model-path}
        - name: node-path                       
          mountPath: ${node-path}
      volumes:                                   # 物理机外部路径
      - name: ascend-driver
        hostPath:
          path: /usr/local/Ascend/driver
      - name: ascend-add-ons
        hostPath:
          path: /usr/local/Ascend/add-ons
      - name: hccn
        hostPath:
          path: /etc/hccn.conf
      - name: localtime
        hostPath:
          path: /etc/localtime
      - name: npu-smi
        hostPath:
          path: /usr/local/sbin/npu-smi
      - name: model-path
        hostPath:
          path: ${model-path}
      - name: node-path
        hostPath:
          path: ${node-path}

参数说明:

  • ${container_name}:容器名称,此处可以自己定义一个容器名称,例如ascend-vllm。
  • ${image_name}:Step3 制作推理镜像构建的推理镜像名称。
  • ${node-path}:节点自定义目录,该目录下包含pod配置文件config.yaml和推理服务启动脚本run_vllm.sh,run_vllm.sh内容见Step3 创建服务启动脚本
  • ${model-path}:Step1 上传权重文件中上传的模型权重路径。

Step3 创建服务启动脚本

run_vllm.sh脚本示例如下。

  • 方式一:通过OpenAI服务API接口启动服务

    (1)非多模态

    source /home/ma-user/.bashrc
    export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES}
    
    python -m vllm.entrypoints.openai.api_server --model ${model_path} \
    --max-num-seqs=256 \
    --max-model-len=4096 \
    --max-num-batched-tokens=4096 \
    --tensor-parallel-size=1 \
    --block-size=128 \
    --host=0.0.0.0 \
    --port=8080 \
    --gpu-memory-utilization=0.9 \
    --trust-remote-code

    (2)llava多模态

    source /home/ma-user/.bashrc
    export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES}
    
    export VLLM_IMAGE_FETCH_TIMEOUT=100
    export VLLM_ENGINE_ITERATION_TIMEOUT_S=600
    
    python -m vllm.entrypoints.openai.api_server --model ${model_path} \
    --max-num-seqs=256 \
    --max-model-len=4096 \
    --max-num-batched-tokens=4096 \
    --tensor-parallel-size=1 \
    --block-size=128 \
    --image-input-type pixel_values \
    --image-token-id 32000 \
    --image-input-shape 1,3,336,336 \
    --image-feature-size 576 \
    --chat-template examples/template_llava.jinja \
    --dtype bfloat16 \
    --served-model-name llava \
    --host=0.0.0.0 \
    --port=8080 \
    --gpu-memory-utilization=0.9 \
    --trust-remote-code

    多模态推理服务参数说明如下:

    • VLLM_IMAGE_FETCH_TIMEOUT图片下载时间环境变量。
    • VLLM_ENGINE_ITERATION_TIMEOUT_S:服务间隔最大时长,超过会报timeout错误。
    • --image-input-type:图像输入模式,pixel_values and image_features; 当前流程以pixel_values为例。具体使用方式见vllm官网。
    • --image-token-id:LLM模型图像输入占位input id,llava-1.5是32000,llava-v1.6是64000;格式如

      [1, 32000, ..., 32000, 29871, 13, 11889, 29901, 1724, 29915, 29879, 278, 2793, 310, 278, 1967, 29973, 13, 22933, 9047, 13566, 29901],当前例子中一共576个32000,后面id则为prompt id。

    • --image-input-shape:输入图片维度,当前不支持图片动态维度,如果图片不是(1,336,336)shape,将会被resize。
    • --image-feature-size:图片输入解析维度大小;llava-v1.6图片输入维度与image-feature-size关系映射表见git;计算原理如下:
      最小处理单元为14*14
      【llava1.5】
      336*336图像 ==(336/14=24)>> 24*24=576
      672*672图像 ==(672/14=48)>> 48*48=2304
      【llava1.6】
      336*336图像 ==(1个patch+1个自身缩放+换行标记)>> 换行标记+2个336*336 ==(336/14=24)>> 336/14+2*24*24=1176
      672*672图像 ==(4个patch+1个自身缩放+换行标记)>> 换行标记+5个336*336 ==(336/14=24)>> 672/14+5*24*24=2928
    • --chat-template:llava对话构建模板。
  • 方式二:通过vLLM服务API接口启动服务
    source /home/ma-user/.bashrc
    export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES}
    
    python -m vllm.entrypoints.api_server --model ${model_path} \
    --max-num-seqs=256 \
    --max-model-len=4096 \
    --max-num-batched-tokens=4096 \
    --tensor-parallel-size=1 \
    --block-size=128 \
    --host=0.0.0.0 \
    --port=8080 \
    --gpu-memory-utilization=0.9 \
    --trust-remote-code

    推理服务基础参数说明如下:

    • ${ASCEND_RT_VISIBLE_DEVICES}:使用的NPU卡,单卡设为0即可,4卡可设为0,1,2,3。
    • ${model_path}:Step1 上传权重文件中上传的模型权重路径。
    • --tensor-parallel-size:并行卡数。
    • --host:服务部署的IP,使用本机IP 0.0.0.0。
    • --port:服务部署的端口8080。
    • --max-model-len:最大数据输入+输出长度,不能超过模型配置文件config.json里面定义的“max_position_embeddings”和“seq_length”;如果设置过大,会占用过多显存,影响kvcache的空间。不同模型推理支持的max-model-len长度不同,具体差异请参见表1
    • --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。
    • --trust-remote-code:是否相信远程代码。
    • --dtype:模型推理的数据类型。仅支持FP16和BF16数据类型推理。float16表示FP16,bfloat16表示BF16。如果不指定,则根据输入数据自动匹配数据类型。
    • --distributed-executor-backend:多卡推理启动后端,可选值为"ray"或者"mp",其中"ray"表示使用ray进行启动多卡推理,"mp"表示使用python多进程进行启动多卡推理。默认使用"mp"后端启动多卡推理。
    高阶参数说明:
    • --enable-prefix-caching:如果prompt的公共前缀较长或者多轮对话场景下推荐使用prefix-caching特性。在推理服务启动脚本中添加此参数表示使用,不添加表示不使用。
    • --quantization:推理量化参数。当使用量化功能,则在推理服务启动脚本中增加该参数,若未使用量化功能,则无需配置。根据使用的量化方式配置,可选择awqsmoothquant方式。
    • --speculative-model ${container_draft_model_path}:投机草稿模型地址,模型格式是HuggingFace的目录格式。即Step1 上传权重文件上传的HuggingFace权重文件存放目录。投机草稿模型为与--model入参同系列,但是权重参数远小于--model指定的模型。若未使用投机推理功能,则无需配置。
    • --num-speculative-tokens:投机推理小模型每次推理的token数。若未使用投机推理功能,则无需配置。参数--num-speculative-tokens需要和--speculative-model ${container_draft_model_path}同时使用。
    • --use-v2-block-manager:vllm启动时使用V2版本的BlockSpaceManger来管理KVCache索引,若不使用该功能,则无需配置。注意:若使用投机推理功能,必须开启此参数。
    • --served-model-name:vllm服务后台id。

    可在run_vllm.sh增加如下环境变量开启高阶配置:

    export DEFER_DECODE=1
    # 是否使用推理与Token解码并行;默认值为1表示开启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。
    
    export DEFER_MS=10
    # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得当次Token解码能与下一次模型推理并行计算,从而减少总推理时延。该参数需要设置环境变量DEFER_DECODE=1才能生效。
    
    export USE_VOCAB_PARALLEL=1
    # 是否使用词表并行;默认值为1表示开启并行,取值为0表示关闭并行。对于词表较小的模型(如llama2系模型),关闭并行可以减少推理时延,对于词表较大的模型(如qwen系模型),开启并行可以减少显存占用,以提升推理吞吐量。
    
    export USE_PFA_HIGH_PRECISION_MODE=1
    # PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型和Qwen2-57b模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。

    若要开启图模式,请配置以下4个环境变量,并且启动服务时不要添加enforce-eager参数。

    export INFER_MODE=PTA  # 开启PTA模式,若不使用图模式,请关闭该环境变量
    export PTA_TORCHAIR_DECODE_GEAR_ENABLE=1   # 开启动态分档功能
    export PTA_TORCHAIR_DECODE_GEAR_LIST=2,4,6,8,16,32    # 设置动态分档的挡位,根据实际情况设置,另外请不要设置挡位1
    export VLLM_ENGINE_ITERATION_TIMEOUT_S=900    # 设置vllm请求超时时间

    图模式主要针对小模型的场景,可减少算子下发的瓶颈,目前仅针对Qwen2-1.5B进行验证。

    开启图模式后,服务第一次响应请求时会有一个较长时间的图编译过程,并且会在当前目录下生成.torchair_cache文件夹来保存图编译的缓存文件。当服务第二次启动时,可通过缓存文件来快速完成图编译的过程,避免长时间的等待,并且基于图编译缓存文件来启动服务可获得更优的推理性能,因此请在有图编译缓存文件的前提下启动服务。另外,当启动服务时的模型或者参数发生改变时,请删除.torchair_cache文件夹,避免由于缓存文件与实际推理不匹配而报错。

Step4 创建pod

在节点自定义目录${node_path}下执行如下命令创建pod。

kubectl apply -f config.yaml

检查pod启动情况,执行下述命令。如果显示“1/1 running”状态代表启动成功。

kubectl get pod -A
图1 启动pod成功

执行如下命令查看pod日志,若打印类似下图信息表示服务启动成功。

kubectl logs -f ${pod_name}

参数说明:

  • ${pod_name}:pod名,例如图1${pod_name}为yourapp-87d9b5b46-c46bk。
图2 启动服务成功

Step5 推理请求

执行如下命令进入容器。

kubectl exec -it {pod_name} bash

参数说明:

  • ${pod_name}:pod名,例如图1${pod_name}为yourapp-87d9b5b46-c46bk。

使用命令测试推理服务是否正常启动。服务启动命令中的参数设置请参见表1

  • 方式一:通过OpenAI服务API接口启动服务使用以下推理测试命令。${model_path}请替换为实际使用的模型名称。
    curl -X POST http://localhost:8080/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "${model_path}",
        "messages": [
            {
                "role": "user",
                "content": "hello"
            }
        ],
        "max_tokens": 100,
        "top_k": -1,
        "top_p": 1,
        "temperature": 0,
        "ignore_eos": false,
        "stream": false
    }'
  • 方式二:通过vLLM服务API接口启动服务使用以下推理测试命令。下面以Llama系列模型采样方式支持presence_penalty参数的发送请求为例。此处的接口8080需和Step3 创建服务启动脚本中设置的宿主机端口保持一致。
    curl -X POST http://localhost:8080/generate \
    -H "Content-Type: application/json" \
    -d '{
    "prompt": "hello",
    "max_tokens": 100,
    "temperature": 0,
    "ignore_eos": false,
    "presence_penalty":2
     }'

    下面以Llama系列模型采样方式支持length_penalty参数的发送请求为例。

    curl -X POST http://localhost:8080/generate \
    -H "Content-Type: application/json" \
    -d '{
    "prompt": "hello",
    "max_tokens": 100,
    "top_p": 1,
    "temperature": 0,
    "ignore_eos": false,
    "top_k": -1,
    "use_beam_search":true,
    "best_of":2,
    "length_penalty":2
     }'

服务的API与vLLM官网相同,此处介绍关键参数。详细参数解释请参见官网https://docs.vllm.ai/en/stable/dev/sampling_params.html

表1 请求服务参数说明

参数

是否必选

默认值

参数类型

描述

model

Str

通过OpenAI服务API接口启动服务时,推理请求必须填写此参数。取值必须和启动推理服务时的model ${model_path}参数保持一致。

通过vLLM服务API接口启动服务时,推理请求不涉及此参数。

prompt

-

Str

请求输入的问题。

max_tokens

16

Int

每个输出序列要生成的最大tokens数量。

top_k

-1

Int

控制要考虑的前几个tokens的数量的整数。设置为-1表示考虑所有tokens。

适当降低该值可以减少采样时间。

top_p

1.0

Float

控制要考虑的前几个tokens的累积概率的浮点数。必须在 (0, 1] 范围内。设置为1表示考虑所有tokens。

temperature

1.0

Float

控制采样的随机性的浮点数。较低的值使模型更加确定性,较高的值使模型更加随机。0表示贪婪采样。

stop

None

None/Str/List

用于停止生成的字符串列表。返回的输出将不包含停止字符串。

例如:["你","好"],生成文本时遇到"你"或者"好"将停止文本生成。

stream

False

Bool

是否开启流式推理。默认为False,表示不开启流式推理。

n

1

Int

返回多条正常结果。

约束与限制:

不使用beam_search场景下,n取值建议为1≤n≤10。如果n>1时,必须确保不使用greedy_sample采样。也就是top_k > 1; temperature > 0。

使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。

说明:

n建议取值不超过10,n值过大会导致性能劣化,显存不足时,推理请求会失败。

use_beam_search

False

Bool

是否使用beam_search替换采样。

约束与限制:使用该参数时,如下参数需按要求设置:

n>1

top_p = 1.0

top_k = -1

temperature = 0.0

presence_penalty

0.0

Float

presence_penalty表示会根据当前生成的文本中新出现的词语进行奖惩。取值范围[-2.0,2.0]。

frequency_penalty

0.0

Float

frequency_penalty会根据当前生成的文本中各个词语的出现频率进行奖惩。取值范围[-2.0,2.0]。

length_penalty

1.0

Float

length_penalty表示在beam search过程中,对于较长的序列,模型会给予较大的惩罚。

如果要使用length_penalty,必须添加如下三个参数,并且需将use_beam_search参数设置为true,best_of参数设置大于1,top_k固定为-1。

"top_k": -1

"use_beam_search":true

"best_of":2

ignore_eos

False

Bool

ignore_eos表示是否忽略EOS并且继续生成token。

guided_json

None

Union[str, dict, BaseModel]

使用openai启动服务,若需要使用JSON Schema时要配置guided_json参数。

JSON Schema使用专门的关键字来描述数据结构,例如标题title、 类型type、属性properties,必需属性required 、定义definitions等,JSON Schema通过定义对象属性、类型、格式的方式来引导模型生成一个包含用户信息的JSON对象。

若希望使用JSON Schema,guided_json的写法可参考outlines: Structured Text Generation中的“Efficient JSON generation following a JSON Schema”样例,如下图所示。

图3 guided_json样例
若想在发送的请求中包含上述guided_json架构,可参考以下代码。如果prompt未提供充足信息可能导致返回的json文件部分结果为空。
curl -X POST http://${docker_ip}:8080/v1/completions \
-H "Content-Type: application/json" \
-d '{
    "model": "${container_model_path}",
    "prompt": "Meet our valorous character, named Knight, who has reached the age of 32. Clad in impenetrable plate armor, Knight is well-prepared for any battle. Armed with a trusty sword and boasting a strength score of 90, this character stands as a formidable warrior on the field.Please provide details for this character, including their Name, Age, preferred Armor, Weapon, and Strength",
    "max_tokens": 200,
    "temperature": 0,
    "guided_json": "{\"title\": \"Character\", \"type\": \"object\", \"properties\": {\"name\": {\"title\": \"Name\", \"maxLength\": 10, \"type\": \"string\"}, \"age\": {\"title\": \"Age\", \"type\": \"integer\"}, \"armor\": {\"$ref\": \"#/definitions/Armor\"}, \"weapon\": {\"$ref\": \"#/definitions/Weapon\"}, \"strength\": {\"title\": \"Strength\", \"type\": \"integer\"}}, \"required\": [\"name\", \"age\", \"armor\", \"weapon\", \"strength\"], \"definitions\": {\"Armor\": {\"title\": \"Armor\", \"description\": \"An enumeration.\", \"enum\": [\"leather\", \"chainmail\", \"plate\"], \"type\": \"string\"}, \"Weapon\": {\"title\": \"Weapon\", \"description\": \"An enumeration.\", \"enum\": [\"sword\", \"axe\", \"mace\", \"spear\", \"bow\", \"crossbow\"], \"type\": \"string\"}}}"
}'

相关文档