AI开发平台ModelArtsAI开发平台ModelArts

计算
弹性云服务器 ECS
云耀云服务器 HECS
裸金属服务器 BMS
弹性伸缩 AS
镜像服务 IMS
专属主机 DeH
函数工作流 FunctionGraph
云手机 CPH
VR云渲游平台 CVR
特惠算力专区
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
内容分发网络 CDN
存储容灾服务 SDRS
弹性文件服务 SFS
云服务器备份 CSBS
云硬盘备份 VBS
数据快递服务 DES
专属企业存储服务
智能边缘
智能边缘云 IEC
EI 企业智能
EI安视服务
AI开发平台ModelArts
数据湖治理中心 DGC
数据仓库服务 GaussDB(DWS)
企业级AI应用开发专业套件 ModelArts Pro
数据湖探索 DLI
华为HiLens
云搜索服务 CSS
数据接入服务 DIS
表格存储服务 CloudTable
数据湖工厂 DLF
图引擎服务 GES
推荐系统 RES
文字识别 OCR
内容审核 Moderation
图像识别 Image
图像搜索 ImageSearch
人脸识别服务 FRS
对话机器人服务 CBS
视频分析服务 VAS
数据可视化 DLV
视频接入服务 VIS
自然语言处理 NLP
语音交互服务 SIS
知识图谱 KG
医疗智能体 EIHealth
可信智能计算服务 TICS
园区智能体 CampusGo
实时流计算服务 CS
人证核身服务 IVS
IoT物联网
设备接入 IoTDA
IoT物联网
全球SIM联接 GSL
设备发放 IoTDP
IoT开发者服务
IoT边缘 IoTEdge
IoT数据分析
路网数字化服务 DRIS
开发与运维
项目管理 ProjectMan
代码托管 CodeHub
流水线 CloudPipeline
代码检查 CodeCheck
编译构建 CloudBuild
部署 CloudDeploy
云测 CloudTest
发布 CloudRelease
移动应用测试 MobileAPPTest
CloudIDE
Classroom
软件开发平台 DevCloud
开源镜像站 Mirrors
视频
媒体处理 MPC
视频点播 VOD
视频直播 Live
实时音视频 SparkRTC
管理与部署
统一身份认证服务 IAM
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云审计服务 CTS
云日志服务 LTS
标签管理服务 TMS
资源管理服务 RMS
应用身份管理服务 OneAccess
专属云
专属计算集群 DCC
专属分布式存储服务 DSS
域名与网站
域名注册服务 Domains
云速建站 CloudSite
企业协同
华为云WeLink
会议
ISDP
解决方案
全栈专属服务
高性能计算 HPC
SAP
游戏云
混合云灾备
快视频
华为工业云平台 IMC
价格
价格原则
成本优化最佳实践
昇腾
昇腾MindX SDK (20.3)
其他
管理控制台
消息中心
产品价格详情
系统权限
我的凭证
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
应用编排服务 AOS
容器交付流水线 ContainerOps
应用服务网格 ASM
多云容器平台 MCP
基因容器 GCS
容器洞察引擎 CIE
容器批量计算 BCE
云原生服务中心 OSC
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
数据库
云数据库 RDS
文档数据库服务 DDS
分布式数据库中间件 DDM
数据复制服务 DRS
数据管理服务 DAS
云数据库 GaussDB(for MySQL)
云数据库 GaussDB NoSQL
云数据库 GaussDB (for openGauss)
数据库和应用迁移 UGO
大数据
MapReduce服务 MRS
应用中间件
应用管理与运维平台 ServiceStage
分布式缓存服务 DCS
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
消息通知服务 SMN
微服务引擎 CSE
云性能测试服务 CPTS
区块链服务 BCS
API网关 APIG
应用魔方 AppCube
分布式消息服务RocketMQ版
多云高可用服务 MAS
可信跨链数据链接服务 TCDAS
企业应用
云桌面 Workspace
云解析服务 DNS
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMAExchange
ROMA API
鸿源云道
华为乾坤
安全与合规
Web应用防火墙 WAF
漏洞扫描服务 VSS
企业主机安全 HSS
容器安全服务 CGS
数据加密服务 DEW
数据库安全服务 DBSS
态势感知 SA
云堡垒机 CBH
SSL证书管理 SCM
云证书管理服务 CCM
管理检测与响应 MDR
数据安全中心 DSC
威胁检测服务 MTD
DDoS防护 ADS
云防火墙 CFW
应用信任中心 ATC
安全技术与应用
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
智能协作
IdeaHub
企业网络
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
废弃-华为乾坤安全云服务
云通信
语音通话 VoiceCall
消息&短信 MSGSMS
隐私保护通话 PrivateNumber
开发者工具
SDK开发指南
API签名指南
DevStar
HCloud CLI
Terraform
Ansible
云生态
云市场
鲲鹏
昇腾
合作伙伴中心
华为云培训中心
用户服务
帐号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
网站备案
支持计划
专业服务
合作伙伴支持计划
更新时间:2021/08/06 GMT+08:00
分享

模型评估代码示例

针对图像分类、图像语义分割、物体检测以及利用ModelArts推理服务进行引擎无关的模型评估等常用场景,提供代码示例,您可以参考示例编写您的评估代码。

图像分类评估代码示例

以下样例代码对应训练模型为预置算法ResNet_v1_50(TensorFlow引擎)。

  • “model_url”:模型目录,界面上选择模型版本后,后台自动添加此参数,无需手工添加。
  • “data_url”:数据集目录,界面上选择数据集版本后,后台自动添加此参数,无需手工添加。
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
import json
import logging
import os
import sys
import tempfile

import h5py
import numpy as np
from PIL import Image

import moxing as mox
import tensorflow as tf
from deep_moxing.framework.manifest_api.manifest_api import get_sample_list
from deep_moxing.model_analysis.api import analyse, tmp_save
from deep_moxing.model_analysis.common.constant import TMP_FILE_NAME

logging.basicConfig(level=logging.DEBUG)

FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string('model_url', '', 'path to saved model')
tf.app.flags.DEFINE_string('data_url', '', 'path to output files')
tf.app.flags.DEFINE_string('adv_param_json',
                           '{"attack_method":"i-FGSM","eps":30, "iter_times":4}',
                           'params for attacks')
FLAGS(sys.argv, known_only=True)


def _preprocess(data_path):
    img = Image.open(data_path)
    img = img.convert('RGB')
    img = np.asarray(img, dtype=np.float32)
    img = img[np.newaxis, :, :, :]
    return img


def softmax(x):
    x = np.array(x)
    orig_shape = x.shape
    if len(x.shape) > 1:
        # Matrix
        x = np.apply_along_axis(lambda x: np.exp(x - np.max(x)), 1, x)
        denominator = np.apply_along_axis(lambda x: 1.0 / np.sum(x), 1, x)
        if len(denominator.shape) == 1:
            denominator = denominator.reshape((denominator.shape[0], 1))
        x = x * denominator
    else:
        # Vector
        x_max = np.max(x)
        x = x - x_max
        numerator = np.exp(x)
        denominator = 1.0 / np.sum(numerator)
        x = numerator.dot(denominator)
    assert x.shape == orig_shape
    return x


def get_dataset(data_path, label_map_dict):
    label_list = []
    img_name_list = []
    if 'manifest' in data_path:
        manifest, _ = get_sample_list(
            manifest_path=data_path, task_type='image_classification')
        for item in manifest:
            if len(item[1]) != 0:
                label_list.append(label_map_dict.get(item[1][0]))
                img_name_list.append(item[0])
            else:
                continue
    else:
        label_name_list = os.listdir(data_path)
        label_dict = {}
        for idx, item in enumerate(label_name_list):
            label_dict[str(idx)] = item
            sub_img_list = os.listdir(os.path.join(data_path, item))
            img_name_list += [
                os.path.join(data_path, item, img_name) for img_name in sub_img_list
            ]
            label_list += [label_map_dict.get(item)] * len(sub_img_list)
    return img_name_list, label_list


def deal_ckpt_and_data_with_obs():
    pb_dir = FLAGS.model_url
    data_path = FLAGS.data_url

    if pb_dir.startswith('obs://'):
        mox.file.copy_parallel(pb_dir, '/cache/ckpt/')
        pb_dir = '/cache/ckpt'
        print('------------- download success ------------')
    if data_path.startswith('obs://'):
        mox.file.copy_parallel(data_path, '/cache/data/')
        data_path = '/cache/data/'
        print('------------- download dataset success ------------')
    assert os.path.isdir(pb_dir), 'Error, pb_dir must be a directory'
    return pb_dir, data_path


def evalution():
    pb_dir, data_path = deal_ckpt_and_data_with_obs()
    adv_param_json = FLAGS.adv_param_json
    index_file = os.path.join(pb_dir, 'index')
    try:
        label_file = h5py.File(index_file, 'r')
        label_array = label_file['labels_list'][:].tolist()
        label_array = [item.decode('utf-8') for item in label_array]
    except Exception as e:
        logging.warning(e)
        logging.warning('index file is not a h5 file, try json.')
        with open(index_file, 'r') as load_f:
            label_file = json.load(load_f)
        label_array = label_file['labels_list'][:]
    label_map_dict = {}
    label_dict = {}
    for idx, item in enumerate(label_array):
        label_map_dict[item] = idx
        label_dict[idx] = item
    print(label_map_dict)
    print(label_dict)

    data_file_list, label_list = get_dataset(data_path, label_map_dict)

    assert len(label_list) > 0, 'missing valid data'
    assert None not in label_list, 'dataset and model not match'

    pred_list = []
    file_name_list = []
    img_list = []
    for img_path in data_file_list:
        img = _preprocess(img_path)
        img_list.append(img)
        file_name_list.append(img_path)
    config = tf.ConfigProto()
    config.gpu_options.allow_growth = True
    config.gpu_options.visible_device_list = '0'
    with tf.Session(graph=tf.Graph(), config=config) as sess:
        meta_graph_def = tf.saved_model.loader.load(
            sess, [tf.saved_model.tag_constants.SERVING], pb_dir)
        signature = meta_graph_def.signature_def
        signature_key = 'predict_object'
        input_key = 'images'
        output_key = 'logits'
        x_tensor_name = signature[signature_key].inputs[input_key].name
        y_tensor_name = signature[signature_key].outputs[output_key].name
        x = sess.graph.get_tensor_by_name(x_tensor_name)
        y = sess.graph.get_tensor_by_name(y_tensor_name)
        for img in img_list:
            pred_output = sess.run([y], {x: img})
            pred_output = softmax(pred_output[0])
            pred_list.append(pred_output[0].tolist())

    label_dict = json.dumps(label_dict)
    task_type = 'image_classification'

    # analyse
    res = analyse(
        task_type=task_type,
        pred_list=pred_list,
        label_list=label_list,
        name_list=file_name_list,
        label_map_dict=label_dict)


if __name__ == "__main__":
    evalution()

图像语义分割评估代码示例

以下样例代码对应训练模型为D-LinkNet道路分割模型(TensorFlow引擎)。

  • “model_url”:模型目录,界面上选择模型版本后,后台自动添加此参数,无需手工添加。
  • “data_url”:数据集目录,界面上选择数据集版本后,后台自动添加此参数,无需手工添加
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
import glob
import json
import logging
import os
import sys

import numpy as np
from PIL import Image

import moxing as mox
import tensorflow as tf
from deep_moxing.model_analysis.api import analyse

logging.basicConfig(level=logging.DEBUG)

FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string('model_url', '', 'path to saved model')
tf.app.flags.DEFINE_string('data_url', '', 'path to data files')
FLAGS(sys.argv, known_only=True)


def _norm(img):
    mean = np.mean(img, axis=(0, 1), keepdims=True)
    std = np.std(img, axis=(0, 1), keepdims=True)
    img = (img - mean) / std
    return img


def _preprocess(data_path):
    img = Image.open(data_path)
    img = img.convert('RGB')
    img = np.asarray(img, dtype=np.float32)
    img = _norm(img)
    img = img[np.newaxis, :, :, :]
    return img


def evalution():
    pb_dir = FLAGS.model_url
    data_path = FLAGS.data_url

    if data_path.startswith('obs://'):
        mox.file.copy_parallel(data_path, '/cache/dataset')
        image_data_path = '/cache/dataset/eval_uint8'
        label_path = '/cache/dataset/eval_label'
    else:
        image_data_path = os.path.join(data_path, 'eval_uint8')
        label_path = os.path.join(data_path, 'eval_label')
    if pb_dir.startswith('obs://'):
        mox.file.copy_parallel(pb_dir, '/cache/model')
        pb_dir = '/cache/model'

    label_dict = {'0': 'background', '1': 'road'}

    pred_list = []
    file_name_list = []
    img_list = []

    label_list = []
    label_file_list = glob.glob(label_path + '/*.' + 'png')
    label_file_list = sorted(label_file_list)
    for img_path in label_file_list:
        label_img = Image.open(img_path)
        label_img = np.asarray(label_img, dtype=np.uint8)
        label_img = (label_img > 128).astype(np.int8)
        label_list.append(label_img)

    data_file_list = glob.glob(image_data_path + '/*.' + 'jpg')
    data_file_list = sorted(data_file_list)
    for img_path in data_file_list:
        img = _preprocess(img_path)
        img_list.append(img)
        file_name_list.append(img_path)

    config = tf.ConfigProto()
    config.gpu_options.allow_growth = True
    config.gpu_options.visible_device_list = '0'
    with tf.Session(graph=tf.Graph(), config=config) as sess:
        meta_graph_def = tf.saved_model.loader.load(
            sess, [tf.saved_model.tag_constants.SERVING], pb_dir)
        signature = meta_graph_def.signature_def
        signature_key = 'segmentation'
        input_key = 'images'
        output_key = 'logists'
        x_tensor_name = signature[signature_key].inputs[input_key].name
        y_tensor_name = signature[signature_key].outputs[output_key].name
        x = sess.graph.get_tensor_by_name(x_tensor_name)
        y = sess.graph.get_tensor_by_name(y_tensor_name)
        for idx, img in enumerate(img_list):
            pred_output, = sess.run([y], {x: img})
            pred_output = np.squeeze(pred_output)
            pred_list.append(pred_output.tolist())
            logging.info(file_name_list[idx])

    label_dict = json.dumps(label_dict)
    task_type = 'image_segmentation'

    # analyse
    res = analyse(
        task_type=task_type,
        pred_list=pred_list,
        label_list=label_list,
        name_list=file_name_list,
        label_map_dict=label_dict,)


if __name__ == "__main__":
    evalution()

物体检测评估代码示例

以下样例代码对应训练模型为预置算法Faster_RCNN_ResNet_v1_50(TensorFlow引擎)。

  • “model_url”:模型目录,界面上选择模型版本后,后台自动添加此参数,无需手工添加。
  • “data_url”:数据集目录,界面上选择数据集版本后,后台自动添加此参数,无需手工添加。
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
import moxing as mox
from deep_moxing.model_analysis.api import analyse
from deep_moxing.framework.manifest_api.manifest_api import get_list
import tensorflow as tf
from PIL import Image
import numpy as np
import xml.etree.ElementTree as ET
import h5py
import os
import json
import logging
import time
import sys

logging.basicConfig(level=logging.DEBUG)

FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string('model_url', '', 'path to saved model')
tf.app.flags.DEFINE_string('data_url', '', 'path to output files')
FLAGS(sys.argv, known_only=True)


def _get_label(label_path, label_map_dict):
    root = ET.parse(label_path).getroot()
    bbox_list = []
    label_list = []
    for obj in root.iter('object'):
        xml_box = obj.find('bndbox')
        xmin = int(float(xml_box.find('xmin').text))
        ymin = int(float(xml_box.find('ymin').text))
        xmax = int(float(xml_box.find('xmax').text))
        ymax = int(float(xml_box.find('ymax').text))
        label_name = obj.find('name').text
        bbox_list.append([ymin, xmin, ymax, xmax])
        label_list.append(label_map_dict.get(label_name))
    assert None not in label_list, 'dataset and model not match'
    return [bbox_list, label_list]


def _preprocess(data_path):
    img = Image.open(data_path)
    img = img.convert('RGB')
    img = np.asarray(img, dtype=np.float32)
    img = img[np.newaxis, :, :, :]
    return img


def get_data_ckpt_local():
    pb_dir = FLAGS.model_url
    data_path = FLAGS.data_url
    data_file_list = []
    label_file_list = []
    if 'manifest' in data_path:
        data_file_list, label_file_list = get_list(manifest_path=data_path)
        print('------------- download ------------')
        mox.file.copy_parallel(pb_dir, '/cache/ckpt/')
        pb_dir = '/cache/ckpt'
        print('------------- download success ------------')
    elif data_path.startswith('obs://'):
        print('------------- download ------------')
        mox.file.copy_parallel(pb_dir, '/cache/ckpt/')
        mox.file.copy_parallel(data_path, '/cache/data/')
        pb_dir = '/cache/ckpt'
        data_path = '/cache/data/'
        print('------------- download success ------------')

    if pb_dir:
        assert os.path.isdir(pb_dir), 'Error, pb_dir must be a directory'

    index_file = os.path.join(pb_dir, 'index')
    label_list = []
    file_name_list = []
    img_list = []
    try:
        label_file = h5py.File(index_file, 'r')
        label_array = label_file['labels_list'][:].tolist()
        label_array = [item.decode('utf-8') for item in label_array]
    except Exception as e:
        logging.warning(e)
        logging.warning('index file is not a h5 file, try json.')
        with open(index_file, 'r') as load_f:
            label_file = json.load(load_f)
        label_array = label_file['labels_list'][:]
    label_map_dict = {}
    label_dict = {}
    for idx, item in enumerate(label_array):
        label_map_dict[item] = idx
        label_dict[idx] = item
    if 'manifest' in data_path:
        for img_path, xml_path in zip(data_file_list, label_file_list):
            label = _get_label(xml_path, label_map_dict)
            img = _preprocess(img_path)
            label_list.append(label)
            img_list.append(img)
            file_name_list.append(img_path)
    else:
        file_list = os.listdir(data_path)
        for item in file_list:
            if ('jpg' in item) or ('bmp' in item) or ('png' in item):
                xml_path = os.path.join(data_path, item.split('.')[0] + '.xml')
                img_path = os.path.join(data_path, item)
                label = _get_label(xml_path, label_map_dict)
                img = _preprocess(img_path)
                label_list.append(label)
                img_list.append(img)
                file_name_list.append(img_path)
            else:
                continue
    assert len(label_list) > 0, 'missing valid data'
    return pb_dir, label_list, label_dict, file_name_list, img_list


def evalution():
    pred_list = []
    pb_dir, label_list, label_dict, file_name_list, img_list = get_data_ckpt_local()
    config = tf.ConfigProto()
    config.gpu_options.allow_growth = True
    config.gpu_options.visible_device_list = '0'
    with tf.Session(graph=tf.Graph(), config=config) as sess:
        meta_graph_def = tf.saved_model.loader.load(
            sess, [tf.saved_model.tag_constants.SERVING], pb_dir)
        signature = meta_graph_def.signature_def
        signature_key = 'predict_object'
        input_key = 'images'
        output_key0 = 'detection_boxes'
        output_key1 = 'detection_classes'
        output_key2 = 'detection_scores'
        x_tensor_name = signature[signature_key].inputs[input_key].name
        y_tensor_name0 = signature[signature_key].outputs[output_key0].name
        y_tensor_name1 = signature[signature_key].outputs[output_key1].name
        y_tensor_name2 = signature[signature_key].outputs[output_key2].name
        x = sess.graph.get_tensor_by_name(x_tensor_name)
        y0 = sess.graph.get_tensor_by_name(y_tensor_name0)
        y1 = sess.graph.get_tensor_by_name(y_tensor_name1)
        y2 = sess.graph.get_tensor_by_name(y_tensor_name2)
        start = time.time()
        for img in img_list:
            pred_detection_boxes, pred_detection_classes, \
                pred_detection_scores = sess.run([y0, y1, y2], {x: img})
            if pred_detection_boxes.ndim == 3:
                pred_detection_boxes = pred_detection_boxes[0]
                pred_detection_classes = pred_detection_classes[0]
                pred_detection_scores = pred_detection_scores[0]
            pred_list.append([
                pred_detection_boxes.tolist(),
                (pred_detection_classes - 1).tolist(),
                pred_detection_scores.tolist()
            ])
        end = time.time()
        fps = len(img_list) / (end - start)

    diy_metric = {'fps': {'value': {'fps': fps}}}
    label_dict = json.dumps(label_dict)
    task_type = 'image_object_detection'

    # analyse
    res = analyse(
        task_type=task_type,
        pred_list=pred_list,
        label_list=label_list,
        name_list=file_name_list,
        custom_metric=diy_metric,
        label_map_dict=label_dict)

if __name__ == "__main__":
    evalution()

调用ModelArts推理服务接口进行模型评估代码示例

完成模型部署后,用户可以调用在线服务推理接口进行模型评估,推荐用户使用创建训练作业的方式来跑该示例。

准备工作

  • 已完成在线服务的部署。
  • 该示例需要安装ModelArst SDK依赖包,下载ModelArts SDK的安装包到本地,并上传到OBS评估代码所在的同级目录中,即代码目录下。
    图1 代码目录

    代码目录文件如下:

    |----code_dir
       |----eval.py
       |----modelarts-latest-py2.py3-none-any.whl

该样例代码为使用标准的检测服务进行模型评估的样例。用户可以参考使用常用框架训练模型创建训练作业完成模型评估。其中代码中的三个运行参数分别从如下位置传入后台:

  • “train_url”:评估结果输出目录。
    图2 train_url
  • “data_url”:数据来源目录。
    图3 data_url
  • “service_id”:已部署的标准在线服务ID。用户可以在已部署的在线服务详情页获取服务ID。
    图4 获取service_id
    图5 通过运行参数传入service_id

下面为eval.py代码示例,代码中需要更改LABEL_MAP_DICT常量,与您自己的数据集适配。

  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
import moxing as mox
import argparse
import xml.etree.ElementTree as ET
import os
whl_path = os.path.join(os.path.abspath(os.path.dirname(__file__)), 'modelarts-latest-py2.py3-none-any.whl')
os.system('pip install ' + whl_path)
from modelarts.session import Session
from modelarts.model import Predictor
from deep_moxing.model_analysis.api import analyse


# label map dict,标签与类别数字的对应关系。
LABEL_MAP_DICT = {'blue': 0, 'none': 1, 'red': 2, 'white': 3, 'yellow': 4}
os.environ['COMMON_REQUEST_TIME_OUT'] = '30'


# 获取图片的真实标签,返回值为框的坐标和框的类别名称。
def get_xml_info(xml_path):
    """
    :return: {'bbox':[[], []], 'name': [], 'data_file':str}
    """
    tree = ET.ElementTree()
    xml_parser = ET.XMLParser(target=ET.TreeBuilder())
    xml_parser.feed(mox.file.read(xml_path, binary=True))
    tree._root = xml_parser.close()
    xml_tree = tree
    objs = xml_tree.findall('object')

    # 获取所有已标注的目标框结果。
    bbox_list = []
    name_list = []
    for ix, obj in enumerate(objs):
        bbox = obj.find('bndbox')
        name_list.append(obj.find('name').text.lower().strip())
        bbox_list.append([float(bbox.find('ymin').text.lower().strip()),
                          float(bbox.find('xmin').text.lower().strip()),
                          float(bbox.find('ymax').text.lower().strip()),
                          float(bbox.find('xmax').text.lower().strip())])
    return {'bbox': bbox_list, 'name': name_list}


def inference(data_path, predictor_instance):
    predict_result = predictor_instance.predict(data=data_path, data_type='images')
    return predict_result


def predict(data_url, service_id, train_url):
    pred_list = []
    name_list = []
    label_list = []
    # 拷贝数据集到本地。
    mox.file.copy_parallel(data_url, '/cache/data/')
    # 初始化Session,使用Modelarts SDK。
    session = Session()
    predictor_instance = Predictor(session, service_id=service_id)
    # 不断送入图片。
    for filename in mox.file.list_directory('/cache/data/'):
        if '.jpg' in filename or '.png' in filename or 'jpeg' in filename:
            data_path = os.path.join('/cache/data/', filename)
            xml_path = os.path.join('/cache/data/', filename.split('.')[0] + '.xml')
            # 获取推理结果。
            result = inference(data_path, predictor_instance)
            # 获取真实标签。
            label = get_xml_info(xml_path)
            # 原图路径name_list,必须是OBS路径。
            name_list.append(os.path.join(data_url, filename))
            for idx in range(len(label['name'])):
                label['name'][idx] = LABEL_MAP_DICT[label['name'][idx]]
            # 组织真实标签结果label_list。
            label_list.append([label['bbox'], label['name']])
            # 组织推理标签结果pred_list。
            if result is not None:
                for idx in range(len(result['detection_classes'])):
                    result['detection_classes'][idx] = LABEL_MAP_DICT[result['detection_classes'][idx]]
                pred_list.append([result['detection_boxes'], result['detection_classes'], result['detection_scores']])
            else:
                pred_list.append([[[]], [], []])

    mox.file.make_dirs('/cache/output/')
    analyse(task_type='image_object_detection', pred_list=pred_list, name_list=name_list, label_list=label_list,
            label_map_dict={value:key for key, value in LABEL_MAP_DICT.items()}, save_path='/cache/output/')
    # 拷贝结果到输出目录。
    mox.file.copy_parallel('/cache/output/', train_url)


if __name__ == '__main__':
    parser = argparse.ArgumentParser(description='Process some integers.')
    parser.add_argument('--data_url', default='',
                        type=str,
                        help='data root directory path')
    parser.add_argument('--train_url',
                        default='',
                        type=str,
                        help='output path')
    parser.add_argument('--service_id',
                        default='',
                        type=str,
                        help='inference service id')

    args, unknown = parser.parse_known_args()
    predict(args.data_url, args.service_id, args.train_url)
分享:

    相关文档

    相关产品