AI开发平台ModelArtsAI开发平台ModelArts

计算
弹性云服务器 ECS
裸金属服务器 BMS
云手机 CPH
专属主机 DeH
弹性伸缩 AS
镜像服务 IMS
函数工作流 FunctionGraph
云耀云服务器 HECS
VR云渲游平台 CVR
特惠算力专区
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
弹性文件服务 SFS
存储容灾服务 SDRS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属企业存储服务
云存储网关 CSG
专属分布式存储服务 DSS
CDN与智能边缘
内容分发网络 CDN
智能边缘云 IEC
智能边缘小站 IES
智能边缘平台 IEF
人工智能
AI开发平台ModelArts
华为HiLens
图引擎服务 GES
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
医疗智能体 EIHealth
园区智能体 CampusGo
企业级AI应用开发专业套件 ModelArts Pro
人脸识别服务 FRS
对话机器人服务 CBS
视频分析服务 VAS
语音交互服务 SIS
知识图谱 KG
人证核身服务 IVS
IoT物联网
设备接入 IoTDA
设备管理 IoTDM(联通用户专用)
全球SIM联接 GSL
IoT数据分析
路网数字化服务 DRIS
IoT边缘 IoTEdge
设备发放 IoTDP
开发与运维
软件开发平台 DevCloud
项目管理 ProjectMan
代码托管 CodeHub
流水线 CloudPipeline
代码检查 CodeCheck
编译构建 CloudBuild
部署 CloudDeploy
云测 CloudTest
发布 CloudRelease
移动应用测试 MobileAPPTest
CloudIDE
Classroom
开源镜像站 Mirrors
应用魔方 AppCube
云性能测试服务 CPTS
应用管理与运维平台 ServiceStage
云应用引擎 CAE
视频
实时音视频 SparkRTC
视频直播 Live
视频点播 VOD
媒体处理 MPC
视频接入服务 VIS
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
资源管理服务 RMS
应用身份管理服务 OneAccess
区块链
区块链服务 BCS
可信跨链服务 TCS
可信分布式身份服务
智能协作
IdeaHub
开发者工具
SDK开发指南
API签名指南
DevStar
HCloud CLI
Terraform
Ansible
云生态
云市场
合作伙伴中心
华为云培训中心
其他
管理控制台
消息中心
产品价格详情
系统权限
我的凭证
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
应用编排服务 AOS
多云容器平台 MCP
基因容器 GCS
容器洞察引擎 CIE
云原生服务中心 OSC
容器批量计算 BCE
容器交付流水线 ContainerOps
应用服务网格 ASM
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
数据库
云数据库 RDS
数据复制服务 DRS
文档数据库服务 DDS
分布式数据库中间件 DDM
云数据库 GaussDB (for openGauss)
云数据库 GaussDB(for MySQL)
云数据库 GaussDB NoSQL
数据管理服务 DAS
数据库和应用迁移 UGO
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
可信智能计算服务 TICS
推荐系统 RES
云搜索服务 CSS
数据可视化 DLV
数据湖治理中心 DGC
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
API网关 APIG
分布式缓存服务 DCS
分布式消息服务RocketMQ版
企业应用
域名注册服务 Domains
云解析服务 DNS
云速建站 CloudSite
网站备案
商标注册
华为云WeLink
会议
隐私保护通话 PrivateNumber
语音通话 VoiceCall
消息&短信 MSGSMS
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
云桌面 Workspace
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMAExchange
API全生命周期管理 ROMA API
安全与合规
安全技术与应用
DDoS防护 ADS
Web应用防火墙 WAF
云防火墙 CFW
应用信任中心 ATC
企业主机安全 HSS
容器安全服务 CGS
云堡垒机 CBH
数据库安全服务 DBSS
数据加密服务 DEW
数据安全中心 DSC
云证书管理服务 CCM
SSL证书管理 SCM
漏洞扫描服务 VSS
态势感知 SA
威胁检测服务 MTD
管理检测与响应 MDR
安全治理云图 Compass
认证测试中心 CTC
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
专属云
专属计算集群 DCC
解决方案
高性能计算 HPC
SAP
混合云灾备
华为工业云平台 IMC
价格
成本优化最佳实践
专属云商业逻辑
用户服务
帐号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
支持计划
专业服务
合作伙伴支持计划
更新时间:2022-01-17 GMT+08:00
分享

常用框架

本章详细介绍ModelArts支持的常用AI框架以及使用AI框架编写创建训练作业的训练代码。

训练管理支持的AI常用框架

当前ModelArts支持的AI引擎及对应版本如下所示。

表1 旧版训练作业支持的AI引擎

工作环境

适配芯片

系统架构

系统版本

AI引擎与版本

支持的cuda或Ascend版本

TensorFlow

CPU/GPU

x86_64

Ubuntu16.04

TF-1.8.0-python3.6

cuda9.0

TF-1.8.0-python2.7

cuda9.0

TF-1.13.1-python3.6

cuda10.0

TF-1.13.1-python2.7

cuda10.0

TF-2.1.0-python3.6

cuda10.1

MXNet

CPU/GPU

x86_64

Ubuntu16.04

MXNet-1.2.1-python3.6

cuda9.0

MXNet-1.2.1-python2.7

cuda9.0

Caffe

CPU/GPU

x86_64

Ubuntu16.04

Caffe-1.0.0-python2.7

cuda8.0

Spark_MLlib

CPU

x86_64

Ubuntu16.04

Spark-2.3.2-python2.7

-

Spark-2.3.2-python3.6

-

Ray

CPU/GPU

x86_64

Ubuntu16.04

RAY-0.7.4-python3.6

cuda10.0

XGBoost-Sklearn

CPU

x86_64

Ubuntu16.04

Scikit_Learn-0.18.1-python2.7

-

Scikit_Learn-0.18.1-python3.6

-

PyTorch

CPU/GPU

x86_64

Ubuntu16.04

PyTorch-1.0.0-python2.7

cuda9.0

PyTorch-1.0.0-python3.6

cuda9.0

PyTorch-1.3.0-python2.7

cuda10.0

PyTorch-1.3.0-python3.6

cuda10.0

PyTorch-1.4.0-python3.6

cuda10.1

Ascend-Powered-Engine

Ascend910

aarch64

Euler2.8

MindSpore-1.2.0-c78-python3.7-euleros2.8-aarch64

21.0.0

TF-1.15-c78-python3.7-euleros2.8-aarch64

21.0.0

MindSpore-GPU

CPU/GPU

x86_64

Ubuntu18.04

MindSpore-1.1.0-python3.7

cuda10.1

  • MoXing是ModelArts团队自研的分布式训练加速框架,它构建于开源的深度学习引擎TensorFlow、MXNet、PyTorch、Keras之上,详细说明请参见MoXing使用说明。如果您使用的是MoXing框架编写训练脚本,在创建训练作业时,请根据您选用的接口选择其对应的AI引擎和版本。
  • “efficient_ai”是华为云ModelArts团队自研的加速压缩工具,它支持对训练作业进行量化、剪枝和蒸馏来加速模型推理速度,详细说明请参见efficient_ai使用说明
  • Ascend-Powered-Engine仅在“华北-北京四”区域支持。

使用常见框架的训练代码开发

当您使用常用框架创建训练作业时,您需要在创建页面提供代码目录路径、代码目录路径中的启动文件、训练数据路径以及训练输出路径。这四种路径搭建了用户和ModelArts后台交互的桥梁。

  • 代码目录路径

    您需要在OBS桶中指定代码目录,并将训练代码、依赖安装包或者预生成模型等训练所需文件上载至该代码目录下。训练作业创建完成后,ModelArts会将代码目录及其子目录下载至后台容器中。

  • 代码目录路径中的启动文件

    代码目录路径中的启动文件作为训练启动的入口,当前只支持python格式。

  • 训练数据路径

    请注意不要将训练数据路径放在代码目录路径下。训练数据比较大,训练代码目录在启动后会下载至后台,可能会有下载失败的风险。

    在训练作业启动后,ModelArts会挂载硬盘至“/cache”目录,用户可以使用此目录来存储临时文件。“/cache”目录大小请参考训练环境中不同规格资源“/cache”目录的大小

    您需要将训练数据上传至OBS桶另外的路径,并在训练代码中需通过解析命令行参数“data_url”下载训练数据至“/cache”目录。请保证您设置的桶路径有读取权限。

  • 训练输出路径

    建议设置一个空目录为训练输出路径。在训练代码中,您需要解析命令行参数“train_url”上载训练输出至指定的训练输出路径,请保证您设置的桶路径有写入权限和读取权限。

当您使用常用框架创建训练作业时,您需要实现训练代码的开发。在ModelArts中,训练代码需包含以下步骤:

图1 训练代码开发说明
  1. (可选)引入依赖

    当您使用常见框架创建训练作业的时候,如果您的模型引用了其他依赖,您需要在创建训练作业的“代码目录”下放置相应的文件或安装包。

    图2 选择常用框架并指定模型启动文件
  2. 解析必选参数“data_url”“train_url”

    在使用常见框架创建训练作业时,您需要在创建训练作业页面填写作业参数配置相关信息。

    “data_url”:训练数据是训练代码开发中必不可少的输入。在创建训练作业时,您需要在作业参数配置“数据来源”。训练代码中的“data_url”指代“数据来源”的路径。

    “train_url”:模型训练结束后,训练模型以及相关输出信息需保存在OBS路径。在创建训练作业时,您需要在作业参数配置“训练输出位置”。训练代码中的“train_url”指代“训练输出位置”的OBS路径

    图3 作业参数配置相关信息

    在训练代码中需解析“data_url”“train_url”,ModelArts推荐以下方式实现参数解析。

     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    import argparse
    # 创建解析
    parser = argparse.ArgumentParser(description="train mnist",
                                     formatter_class=argparse.ArgumentDefaultsHelpFormatter)
    # 添加参数
    parser.add_argument('--train_url', type=str, default='obs://obs-test/ckpt/mnist',
                        help='the path model saved')
    parser.add_argument('--data_url', type=str, default='obs://obs-test/data/', help='the training data')
    # 解析参数
    args, unkown = parser.parse_known_args()
    
  3. “data_url”导入训练数据

    已知训练数据路径为“data_url”,ModelArts推荐采用Moxing接口实现训练数据下载到“cache”目录。

    1
    2
    import moxing as mox 
    mox.file.copy_parallel(args.data_url, /cache)
    
  4. 训练代码正文和保存模型

    训练代码正文和保存模型涉及的代码与您使用的AI引擎密切相关。以下案例以Tensorflow框架为例,训练代码中解析参数方式采用tensorflow接口tf.flags.FLAGS接受命令行参数:

    from __future__ import absolute_import
    from __future__ import division
    from __future__ import print_function
    
    import os
    
    import tensorflow as tf
    from tensorflow.examples.tutorials.mnist import input_data
    
    import moxing as mox
    
    tf.flags.DEFINE_integer('max_steps', 1000, 'number of training iterations.')
    tf.flags.DEFINE_string('data_url', '/home/jnn/nfs/mnist', 'dataset directory.')
    tf.flags.DEFINE_string('train_url', '/home/jnn/temp/delete', 'saved model directory.')
    
    FLAGS = tf.flags.FLAGS
    
    
    def main(*args):
        mox.file.copy_parallel(FLAGS.data_url, '/cache/data_url')
    
        # Train model
        print('Training model...')
        mnist = input_data.read_data_sets('/cache/data_url', one_hot=True)
        sess = tf.InteractiveSession()
        serialized_tf_example = tf.placeholder(tf.string, name='tf_example')
        feature_configs = {'x': tf.FixedLenFeature(shape=[784], dtype=tf.float32),}
        tf_example = tf.parse_example(serialized_tf_example, feature_configs)
        x = tf.identity(tf_example['x'], name='x')
        y_ = tf.placeholder('float', shape=[None, 10])
        w = tf.Variable(tf.zeros([784, 10]))
        b = tf.Variable(tf.zeros([10]))
        sess.run(tf.global_variables_initializer())
        y = tf.nn.softmax(tf.matmul(x, w) + b, name='y')
        cross_entropy = -tf.reduce_sum(y_ * tf.log(y))
    
        tf.summary.scalar('cross_entropy', cross_entropy)
    
        train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
    
        correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
        accuracy = tf.reduce_mean(tf.cast(correct_prediction, 'float'))
        tf.summary.scalar('accuracy', accuracy)
        merged = tf.summary.merge_all()
        test_writer = tf.summary.FileWriter('/cache/train_url', flush_secs=1)
    
        for step in range(FLAGS.max_steps):
            batch = mnist.train.next_batch(50)
            train_step.run(feed_dict={x: batch[0], y_: batch[1]})
            if step % 10 == 0:
                summary, acc = sess.run([merged, accuracy], feed_dict={x: mnist.test.images, y_: mnist.test.labels})
                test_writer.add_summary(summary, step)
                print('training accuracy is:', acc)
        print('Done training!')
    
        builder = tf.saved_model.builder.SavedModelBuilder(os.path.join('/cache/train_url', 'model'))
    
        tensor_info_x = tf.saved_model.utils.build_tensor_info(x)
        tensor_info_y = tf.saved_model.utils.build_tensor_info(y)
    
        prediction_signature = (
            tf.saved_model.signature_def_utils.build_signature_def(
                inputs={'images': tensor_info_x},
                outputs={'scores': tensor_info_y},
                method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME))
    
        builder.add_meta_graph_and_variables(
            sess, [tf.saved_model.tag_constants.SERVING],
            signature_def_map={
                'predict_images':
                    prediction_signature,
            },
            main_op=tf.tables_initializer(),
            strip_default_attrs=True)
    
        builder.save()
    
        print('Done exporting!')
    
        mox.file.copy_parallel('/cache/train_url', FLAGS.train_url)
    
    
    if __name__ == '__main__':
        tf.app.run(main=main)

  5. 导出训练模型至“train_url”

    已知训练输出位置为“train_url”,ModelArts推荐采用Moxing接口实现输出结果从后台自定义目录“/cache/train_url”目录导出至“train_url”目录。

    mox.file.copy_parallel(“/cache/train_url”, args.train_url)
分享:

    相关文档

    相关产品

关闭导读