更新时间:2026-02-06 GMT+08:00
分享

在AOM平台查看在线服务性能指标

ModelArts会定期收集在线服务的访问统计指标,以及在线服务在资源池中各节点的关键资源(GPU、NPU、CPU、Memory等)的使用情况,并上报到AOM。用户可直接在ModelArts平台查看,也可以在AOM上查看。

服务访问统计的指标介绍

为使用户更好地掌握自己的ModelArts在线服务和对应模型负载的运行状态,云服务平台提供了应用运维管理 AOM。您可以使用该服务监控您的ModelArts在线服务和对应模型负载,执行自动实时监控、告警和通知操作,帮助您更好地了解服务和模型的各项性能指标。

表1 服务访问统计的指标

分类

名称

指标

指标含义

单位

取值范围

采集周期

指标Label

请求数

服务请求数

infer_service_request_total

该指标用于统计在线服务的接口在一个采集周期内的请求次数

≥0

15s

服务接口指标Label

实时连接数

连接数

infer_service_request_connect_count

该指标用于统计在线服务在指标采集时刻的实时连接数量。

≥0

15s

服务指标Label

请求QPS

服务请求QPS

infer_service_request_total

该指标用于统计在线服务在指标采集时刻的实时请求QPS

次/s

≥0

15s

服务指标Label

token指标

在线服务token产生数量

infer_service_token_count

该指标用于统计在线服务一个统计周期内token的产生数量

≥0

15s

服务指标Label

首token的平均时延

infer_service_first_token_avg_cost

该指标用于统计一个周期内首token的平均时延(TTFT)

ms

≥0

15s

服务指标Label

首token的最小时延

infer_service_first_token_min_cost

该指标用于统计一个周期内首token的最小时延

ms

≥0

15s

服务指标Label

首token的最大时延

infer_service_first_token_max_cost

该指标用于统计一个周期内首token的最大时延

ms

≥0

15s

服务指标Label

每个token的平均输出时延

infer_service_per_token_avg_cost

该指标用于统计一个周期内每个token的平均输出时延(不含首token,TPOT)

ms

≥0

15s

服务指标Label

每个token的最大输出时延

infer_service_per_token_max_cost

该指标用于统计一个周期内每个token的最大输出时延(不含首token,TPOT)

ms

≥0

15s

服务指标Label

每个token的最小输出时延

infer_service_per_token_min_cost

该指标用于统计一个周期内每个token的最小输出时延(不含首token,TPOT)

ms

≥0

15s

服务指标Label

token的总耗时的平均值

infer_service_token_latency_avg_cost

该指标用于统计一个周期内输出token的总耗时的平均值

ms

≥0

15s

服务指标Label

token的总耗时的最小值

infer_service_token_latency_min_cost

该指标用于统计一个周期内输出token的总耗时的最小值

ms

≥0

15s

服务指标Label

token的总耗时的最大值

infer_service_token_latency_max_cost

该指标用于统计一个周期内输出token的总耗时的最大值

ms

≥0

15s

服务指标Label

服务时延指标

在线服务请求的时延信息

infer_service_request_cost

该指标用于统计请求的时延信息,可用于计算TPxx和平均时延,其中平均时延计算方式为:infer_service_request_cost_sum/infer_service_request_cost_count,TPxx时延计算方式参考普罗语句,比如TP90为:histogram_quantile(0.90, avg(rate(infer_service_request_cost_bucket{service_id="6d26f238-52b0-4184-8b50-d621a0c80eb4"}[1m:30s]))by(le))

ms

≥0

15s

服务指标Label

首Token时延

首Token时延

infer_service_first_token_cost

该指标用于统计一个周期内首Token的时延信息,可用于计算平均时延和TPxx,其中平均时延计算方式为:sum(increase(infer_service_first_token_cost_sum{service_id="{service_id}"}[59999ms]))by(service_id)/sum(increase(infer_service_first_token_cost_count{service_id="{service_id}"}[59999ms]))by(service_id),TPxx计算方式参考普罗语句:histogram_quantile(XX%, avg(rate(infer_service_first_token_cost_bucket{service_id="{service_id}"}[1m:30s]))by(le))

ms

≥0

15s

服务指标维度

非首Token时延

每个输出Token平均时延

infer_service_per_token_cost

该指标用于统计一个周期内每个输出Token的时延信息,可用于计算平均时延和TPxx,其中平均时延计算方式为:sum(increase(infer_service_per_token_cost_sum{service_id="{service_id}"}[59999ms]))by(service_id)/sum(increase(infer_service_per_token_cost_count{service_id="{service_id}"}[59999ms]))by(service_id),TPxx计算方式参考普罗语句:histogram_quantile(XX%, avg(rate(infer_service_per_token_cost_bucket{service_id="{service_id}"}[1m:30s]))by(le))

ms

≥0

15s

服务指标维度

输入token数

在线服务请求的输入token数

infer_service_input_token_quantity

该指标用于统计请求的输入token数,可用于计算输入token数的平均值、TP50值、TP90值、TP99值,其中输入token数平均值计算方式为:infer_service_input_token_quantity_sum/infer_service_input_token_quantity_count,TPxx输入token数计算方式参考普罗语句,比如TP90为:histogram_quantile(0.90, avg(rate(infer_service_input_token_quantity_bucket{service_id="6d26f238-52b0-4184-8b50-d621a0c80eb4"}[1m:30s]))by(le))

ms

≥0

15s

服务指标Label

输出token数

在线服务请求的输出token数

infer_service_output_token_quantity

该指标用于统计请求的输出token数,可用于计算输出token数的平均值、TP50值、TP90值、TP99值,其中输出token数平均值计算方式为:infer_service_output_token_quantity_sum/infer_service_output_token_quantity_count,TPxx输出token数计算方式参考普罗语句,比如TP90为:histogram_quantile(0.90, avg(rate(infer_service_output_token_quantity_bucket{service_id="6d26f238-52b0-4184-8b50-d621a0c80eb4"}[1m:30s]))by(le))

ms

≥0

15s

服务指标Label

CPU使用核数

在线服务当前CPU使用核数

ma_container_cpu_used_core

该指标用于统计在线服务在指标采集时刻的实时CPU使用核数

Core

≥0

30s

服务指标Label

CPU使用率

在线服务当前CPU使用率

ma_container_cpu_util

该指标用于统计在线服务在指标采集时刻的实时CPU使用率

%

0~100%

30s

服务指标Label

内存使用量

在线服务当前内存使用量

ma_container_memory_used_megabytes

该指标用于统计在线服务在指标采集时刻的实时内存使用量

MB

≥0

30s

服务指标Label

内存使用率

在线服务当前内存使用率

ma_container_memory_util

该指标用于统计在线服务在指标采集时刻的实时内存使用率

%

0~100%

30s

服务指标Label

NPU使用率

在线服务当前NPU使用率

ma_container_npu_util

ma_container_npu_ai_core_util

该指标用于统计在线服务在指标采集时刻的实时NPU使用率

%

0~100%

30s

服务指标Label

NPU显存使用量

在线服务当前NPU显存使用量

ma_container_npu_memory_used_megabytes

ma_container_npu_ddr_memory_usage_bytes

ma_container_npu_hbm_usage_bytes

该指标用于统计在线服务在指标采集时刻的实时NPU显存使用量

MB

≥0

30s

服务指标Label

NPU显存使用率

在线服务当前NPU显存使用率

ma_container_npu_memory_util

ma_container_npu_ddr_memory_util

ma_container_npu_hbm_util

该指标用于统计在线服务在指标采集时刻的实时NPU显存使用率

%

0~100%

30s

服务指标Label

GPU使用率

在线服务当前GPU使用率

ma_container_gpu_util

该指标用于统计在线服务在指标采集时刻的实时GPU使用率

%

0~100%

30s

服务指标Label

GPU显存使用量

在线服务当前GPU显存使用量

ma_container_gpu_mem_used_megabytes

该指标用于统计在线服务在指标采集时刻的实时GPU显存使用量

MB

≥0

30s

服务指标Label

GPU显存使用率

在线服务当前GPU显存使用率

ma_container_gpu_mem_util

该指标用于统计在线服务在指标采集时刻的实时GPU显存使用率

%

0~100%

30s

服务指标Label

网络下行流速

在线服务当前网络下行流速

ma_container_network_receive_bytes

该指标用于统计在线服务在指标采集时刻的实时网络下行流速

Byte/s

≥0

30s

服务指标Label

网络上行流速

在线服务当前网络下行流速

ma_container_network_transmit_bytes

该指标用于统计在线服务在指标采集时刻的实时网络上行流速

Byte/s

≥0

30s

服务指标Label

首token的总输出时延

统计一个周期内服务首token的总输出时延

infer_service_first_token_cost_sum

该指标用于统计在线服务在一个周期内服务首token的总输出时延

ms

≥0

15s

服务指标Label

服务输入的总token数

统计一个周期内服务输入的总token数

infer_service_input_token_quantity_sum

该指标用于统计在线服务在一个周期内服务输入的总token数

ms

≥0

15s

服务指标Label

服务输出的总token数

统计一个周期内服务输出的总token数

infer_service_output_token_quantity_sum

该指标用于统计在线服务在一个周期内服务输出的总token数

ms

≥0

15s

服务指标Label

非首token的总输出时延

统计一个周期内非首token的总输出时延

infer_service_per_token_cost_sum

该指标用于统计在线服务在一个周期内非首token的总输出时延

ms

≥0

15s

服务指标Label

服务请求的总时延

统计一个周期内的服务请求的总时延

infer_service_request_cost_sum

该指标用于统计在线服务在一个周期内的服务请求的总时延

ms

≥0

15s

服务指标Label

首token时延趋势

统计服务的首token时延趋势

infer_service_first_token_cost_bucket

该指标用于统计服务的首token时延趋势

ms

≥0

15s

服务指标Label

服务的输入token数

统计服务的输入token数

infer_service_input_token_quantity_bucket

该指标用于统计服务的输入token数

ms

≥0

15s

服务指标Label

服务的输出token数

统计服务的输出token数

infer_service_output_token_quantity_bucket

该指标用于统计服务的输出token数

ms

≥0

15s

服务指标Label

服务的非首token时延趋势

统计服务的非首token时延趋势

infer_service_per_token_cost_bucket

该指标用于统计服务的非首token时延趋势

ms

≥0

15s

服务指标Label

服务的请求时延趋势

统计服务的请求时延趋势

infer_service_request_cost_bucket

该指标用于统计服务的请求时延趋势

ms

≥0

15s

服务指标Label

Label相关指标介绍

表2 服务接口指标Label

Label名字

Label描述

service_id

推理服务id,比如:9f322d5a-b1d2-4370-94df-5a87de27d36e。

group_id

推理服务部署id。

project_id

用户所属的账号的project id。

code

请求返回码,包括:2xx,4xx,5xx。

method

推理请求方法。

path

推理请求路径。

source

请求流经dispatcher组件的容器pod id。

namespace

指标名,与表1中的指标列对应。

instance_name

推理服务实例名字

service_name

推理服务名字

表3 服务指标Label

Label名字

Label描述

service_id

推理服务id,比如:9f322d5a-b1d2-4370-94df-5a87de27d36e。

group_id

推理服务部署id。

project_id

用户所属的账号的project id。

source

请求流经dispatcher组件的容器pod id。

namespace

指标名,与表1中的指标列对应。

查看监控指标

AOM是云上应用的一站式立体化运维管理平台,实时监控应用及云资源,可以对ModelArts在线服务和模型负载运行状态进行日常监控。您可以通过管理控制台,直观地查看ModelArts在线服务和模型负载的各项监控指标。由于监控数据的获取与传输会花费一定时间,因此,AOM显示的是当前时间5~10分钟前的状态。如果您的在线服务刚创建完成,请等待5~10分钟后查看监控数据。

前提条件:

  • ModelArts在线服务正常运行。
  • 在线服务已正常运行一段时间(约10分钟)。
  • 对于新创建的在线服务,需要等待一段时间,才能查看上报的监控数据和监控视图。
  • 故障、删除状态的在线服务,无法在云监控中查看其监控指标。当在线服务再次启动或恢复后,即可正常查看。

操作步骤:

  1. “服务列表”中选择管理与监管 > 应用运维管理 AOM,进入AOM管理控制台。
  2. 左侧导航栏选择“指标浏览”页面。选择“指标源”为默认来源“Prometheus_AOM_Default”实例,并根据需要设置统计方式和统计周期。

    图1 设置指标源

  3. 在指标浏览页面下方,通过“全量指标”“按普罗语句添加方式”选择一个或多个关注的指标。

    此处以“全量指标”方式获取在线服务作业指标为例,如下图所示。

    • 指标:输入具体的指标,例如:ma_container_cpu_util。
    • 条件:输入条件(instance_name)和维度值(在线服务作业ID,在ModelArts控制台的在线服务详情页中获取),页面会自动显示当前在线服务作业指定的指标监控曲线。
      图2 设置在线服务作业指标

    “按普罗语句添加”方式请参考文档应用运维管理 AOM> 用户指南(2.0)> 指标浏览

相关文档