更新时间:2024-09-14 GMT+08:00
分享

在推理生产环境中部署推理服务

本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。

Step1 准备模型文件和权重文件

在OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

  • 模型权重文件获取地址请参见支持的模型列表和权重文件
    • 如果需要部署量化模型,请参考推理模型量化在Notebook中进行权重转换,并将转换后的权重上传至OBS中。
    • 权重文件夹不要以"model"命名,如果以"model"命名会导致后续创建AI应用报错。
  • 推理启动脚本run_vllm.sh制作请参见下文创建推理脚本文件run_vllm.sh的介绍。
  • SSL证书制作包含cert.pem和key.pem,需自行生成。生成方式请参见•通过openssl创建SSLpem证书
图1 准备模型文件和权重文件

创建推理脚本文件run_vllm.sh

run_vllm.sh脚本示例如下。

  • 方式一:通过OpenAI服务API接口启动服务

    (1)非多模态

    source /home/ma-user/.bashrc
    export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES}
    
    python -m vllm.entrypoints.openai.api_server --model ${model_path} \
    --max-num-seqs=256 \
    --max-model-len=4096 \
    --max-num-batched-tokens=4096 \
    --tensor-parallel-size=1 \
    --block-size=128 \
    --host=0.0.0.0 \
    --port=8080 \
    --gpu-memory-utilization=0.9 \
    --trust-remote-code

    (2)llava多模态

    source /home/ma-user/.bashrc
    export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES}
    
    export VLLM_IMAGE_FETCH_TIMEOUT=100
    export VLLM_ENGINE_ITERATION_TIMEOUT_S=600
    export PYTORCH_NPU_ALLOC_CONF=expandable_segments:False
    python -m vllm.entrypoints.openai.api_server --model ${model_path} \
    --max-num-seqs=256 \
    --max-model-len=4096 \
    --max-num-batched-tokens=4096 \
    --tensor-parallel-size=1 \
    --block-size=128 \
    --image-input-type pixel_values \
    --image-token-id 32000 \
    --image-input-shape 1,3,336,336 \
    --image-feature-size 576 \
    --chat-template examples/template_llava.jinja \
    --dtype bfloat16 \
    --served-model-name llava \
    --host=0.0.0.0 \
    --port=8080 \
    --gpu-memory-utilization=0.9 \
    --trust-remote-code

    多模态推理服务参数说明如下:

    • VLLM_IMAGE_FETCH_TIMEOUT图片下载时间环境变量。
    • VLLM_ENGINE_ITERATION_TIMEOUT_S:服务间隔最大时长,超过会报timeout错误。
    • PYTORCH_NPU_ALLOC_CONF=expandable_segments:False;llava多卡启动时需要关闭虚拟内存扩展;开启时可能提升模型性能。允许分配器最初创建一个段,然后在以后需要更多内存时扩展它的大小。
    • --image-input-type:图像输入模式,pixel_values and image_features; 当前流程以pixel_values为例。具体使用方式见vllm官网。
    • --image-token-id:LLM模型图像输入占位input id,llava-1.5是32000,llava-v1.6是64000;格式如

      [1, 32000, ..., 32000, 29871, 13, 11889, 29901, 1724, 29915, 29879, 278, 2793, 310, 278, 1967, 29973, 13, 22933, 9047, 13566, 29901],当前例子中一共576个32000,后面id则为prompt id。

    • --image-input-shape:输入图片维度,当前不支持图片动态维度,如果图片不是(1,336,336)shape,将会被resize。
    • --image-feature-size:图片输入解析维度大小;llava-v1.6图片输入维度与image-feature-size关系映射表见git;计算原理如下:
      最小处理单元为14*14
      【llava1.5】
      336*336图像 ==(336/14=24)>> 24*24=576
      672*672图像 ==(672/14=48)>> 48*48=2304
      【llava1.6】
      336*336图像 ==(1个patch+1个自身缩放+换行标记)>> 换行标记+2个336*336 ==(336/14=24)>> 336/14+2*24*24=1176
      672*672图像 ==(4个patch+1个自身缩放+换行标记)>> 换行标记+5个336*336 ==(336/14=24)>> 672/14+5*24*24=2928
    • --chat-template:llava对话构建模板。
  • 方式二:通过vLLM服务API接口启动服务
    source /home/ma-user/.bashrc
    export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES}
    
    python -m vllm.entrypoints.api_server --model ${model_path} \
    --max-num-seqs=256 \
    --max-model-len=4096 \
    --max-num-batched-tokens=4096 \
    --tensor-parallel-size=1 \
    --block-size=128 \
    --host=0.0.0.0 \
    --port=8080 \
    --gpu-memory-utilization=0.9 \
    --trust-remote-code

    推理服务基础参数说明如下:

    • ${ASCEND_RT_VISIBLE_DEVICES}:使用的NPU卡,单卡设为0即可,4卡可设为0,1,2,3。
    • ${model_path}:模型路径,填写为/home/mind/model/权重文件夹名称,如:/home/mind/model/chatglm3-6b。
    • --tensor-parallel-size:并行卡数。此处举例为1,表示使用单卡启动服务。
    • --host:服务部署的IP,使用本机IP 0.0.0.0。
    • --port:服务部署的端口8080。
    • -max-num-seqs:最大同时处理的请求数,超过后在等待池等候处理。
    • --max-model-len:推理时最大输入+最大输出tokens数量,输入超过该数量会直接返回。max-model-len的值必须小于config.json文件中的"seq_length"的值,否则推理预测会报错。不同模型推理支持的max-model-len长度不同,具体差异请参见附录:基于vLLM不同模型推理支持最小卡数和最大序列说明
    • --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。
    • --dtype:模型推理的数据类型。支持FP16和BF16数据类型推理。float16表示FP16,bfloat16表示BF16。如果不指定,则根据输入数据自动匹配数据类型。使用不同的dtype会影响模型精度。如果使用开源权重,建议不指定dtype,使用开源权重默认的dtype。
    • --block-size:kv-cache的block大小,推荐设置为128。当前仅支持64和128。
    • --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。
    • --trust-remote-code:是否相信远程代码。
    • --distributed-executor-backend:多卡推理启动后端,可选值为"ray"或者"mp",其中"ray"表示使用ray进行启动多卡推理,"mp"表示使用python多进程进行启动多卡推理。默认使用"mp"后端启动多卡推理。
    • 推理启动脚本必须名为run_vllm.sh,不可修改其他名称。
    • hostname和port也必须分别是0.0.0.0和8080不可更改。
    高阶参数说明:
    • --enable-prefix-caching:如果prompt的公共前缀较长或者多轮对话场景下推荐使用prefix-caching特性。在推理服务启动脚本中添加此参数表示使用,不添加表示不使用。
    • --quantization:推理量化参数。当使用量化功能,则在推理服务启动脚本中增加该参数,如果未使用量化功能,则无需配置。根据使用的量化方式配置,可选择awqsmoothquant或者GPTQ方式。
    • --speculative-model ${container_draft_model_path}:投机草稿模型地址,模型格式是HuggingFace的目录格式。即Step1 准备模型文件和权重文件上传的HuggingFace权重文件存放目录。投机草稿模型为与--model入参同系列,但是权重参数远小于--model指定的模型。如果未使用投机推理功能,则无需配置。
    • --num-speculative-tokens:投机推理小模型每次推理的token数。如果未使用投机推理功能,则无需配置。参数--num-speculative-tokens需要和--speculative-model ${container_draft_model_path}同时使用。
    • --use-v2-block-manager:vllm启动时使用V2版本的BlockSpaceManger来管理KVCache索引,如果不使用该功能,则无需配置。注意:如果使用投机推理功能,必须开启此参数。
    • --served-model-name:vllm服务后台id。

    可在run_vllm.sh增加如下环境变量开启高阶配置:

    export DEFER_DECODE=1
    # 是否使用推理与Token解码并行;默认值为1表示开启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。
    
    export DEFER_MS=10
    # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得本次Token解码能与下一次模型推理并行计算,从而减少总推理时延。该参数需要设置环境变量DEFER_DECODE=1才能生效。
    
    export USE_VOCAB_PARALLEL=1
    # 是否使用词表并行;默认值为1表示开启并行,取值为0表示关闭并行。对于词表较小的模型(如llama2系模型),关闭并行可以减少推理时延,对于词表较大的模型(如qwen系模型),开启并行可以减少显存占用,以提升推理吞吐量。
    
    export USE_PFA_HIGH_PRECISION_MODE=1
    # PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型和Qwen2-57b模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。

Step2 部署模型

在ModelArts控制台的AI应用管理模块中,将模型部署为一个AI应用。

  1. 登录ModelArts控制台,单击“AI应用管理 > AI应用 > 创建”,开始创建AI应用。
    图2 创建AI应用
  2. 设置创建AI应用的相应参数。此处仅介绍关键参数,设置AI应用的详细参数解释请参见从OBS中选择元模型
    • 根据需要自定义应用的名称和版本。
    • 模型来源选择“从对象存储服务(OBS)中选择”,元模型选择转换后模型的存储路径,AI引擎选择“Custom”,引擎包选择准备镜像中上传的推理镜像。
    • 系统运行架构选择“ARM”
    图3 设置AI应用
  3. 单击“立即创建”开始AI应用创建,待应用状态显示“正常”即完成AI应用创建。
    首次创建AI应用预计花费40~60分钟,之后每次构建AI应用花费时间预计5分钟。
    图4 创建完成

    如果权重文件大于60G,创建AI应用会报错,提示模型大于60G,请提工单扩容。

Step3 部署在线服务

Step2 部署模型中创建的AI应用部署为一个在线服务,用于推理调用。

  1. 在ModelArts控制台,单击“部署上线 > 在线服务 > 部署”,开始部署在线服务。
    图5 部署在线服务
  2. 设置部署服务名称,选择Step2 部署模型中创建的AI应用。选择专属资源池,计算节点规格选择snt9b,部署超时时间建议设置为40分钟。此处仅介绍关键参数,更多详细参数解释请参见部署在线服务
    图6 部署在线服务-专属资源池
  3. 单击“下一步”,再单击“提交”,开始部署服务,待服务状态显示“正常”服务部署完成。
    图7 服务部署完成

    注:如果部署在线服务出现报错starting container process caused "exec: \"/home/mind/model/run_vllm.sh\": permission denied",请参考附录:Standard大模型推理常见问题问题6重新构建镜像。

Step4 调用在线服务

进入在线服务详情页面,选择“预测”

如果以vllm接口启动服务,设置请求路径:“/generate”,输入预测代码“{"prompt": "你好", "temperature":0, "max_tokens":20}”,单击“预测”既可看到预测结果。

图8 预测-vllm

如果以openai接口启动服务,设置请求路径:“/v1/completions”,输入预测代码“{"prompt": "你是谁","model": "${model_path}","max_tokens": 50,"temperature":0}”,单击“预测”既可看到预测结果。

图9 预测-openai

在线服务的更多内容介绍请参见文档查看服务详情

Step5 推理性能测试

推理性能测试操作请参见推理性能测试

相关文档