tensorflow基础教程 更多内容
  • 创建自动模型优化的训练作业

    创建自动模型优化的训练作业 背景信息 如果用户使用的AI引擎pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64和tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64,并且优化

    来自:帮助中心

    查看更多 →

  • 查询TFJob

    "template": { "spec": { "containers": [ {

    来自:帮助中心

    查看更多 →

  • 为什么exec进入容器后执行GPU相关的操作报错?

    为什么exec进入容器后执行GPU相关的操作报错? 问题现象: exec进入容器后执行GPU相关的操作(例如nvidia-smi、使用tensorflow运行GPU训练任务等)报错“cannot open shared object file: No such file or directory”。

    来自:帮助中心

    查看更多 →

  • 模型输出目录规范

    对不同的转换任务,基于Ascend芯片,其模型输出目录需要满足一定的规范要求。华为HiLens当前对模型输出目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输出目录说明如下所示。 | |---xxxx.om 转换输出的模型,可用于Ascend芯片,模型文件后缀统一为“

    来自:帮助中心

    查看更多 →

  • 导入/转换ModelArts开发模型

    “TF-FrozenGraph-To-Ascend-HiLens” 支持将Tensorflow frozen graph模型转换成可在ascend芯片上运行的模型。 “Caffe to Ascend” 支持将Caffe模型转换成可在ascend芯片上运行的模型。 Advanced Options 当模

    来自:帮助中心

    查看更多 →

  • 模型配置文件编写说明

    ct_analysis(预测分析)等。 model_type 是 String 模型AI引擎,表明模型使用的计算框架,支持常用AI框架和“Image”。 可选的常用AI框架请参见推理支持的AI引擎。 当model_type设置为Image,表示以 自定义镜像 方式创建模型,此时swr

    来自:帮助中心

    查看更多 →

  • 查询AI应用列表

    不能同时存在。可选值为TensorFlowPyTorch、MindSpore、Image、Custom、Template。 not_model_type 否 String 模型类型,查询不属于该类型的模型列表。可选值为TensorFlowPyTorch、MindSpore、I

    来自:帮助中心

    查看更多 →

  • 业务代码问题

    attribute 'dtype'” 日志提示“No module name 'unidecode'” 分布式Tensorflow无法使用“tf.variable” MXNet创建kvstore时程序被阻塞,无报错 日志出现ECC错误,导致训练作业失败 超过最大递归深度导致训练作业失败

    来自:帮助中心

    查看更多 →

  • 更新TFJob

    "template": { "spec": { "containers": [ {

    来自:帮助中心

    查看更多 →

  • ModelArts最佳实践案例列表

    自动学习 物体检测 基于AI Gallery口罩数据集,使用ModelArts自动学习的物体检测算法,识别图片中的人物是否佩戴口罩。 垃圾分类 自动学习 图像分类 该案例基于华为云AI开发者社区AI Gallery中的数据集资产,让零AI基础的开发者完成“图像分类”的AI模型的训练和部署。

    来自:帮助中心

    查看更多 →

  • 如何在训练中加载部分训练好的参数?

    conv2d/weights. 通过以下方式控制需要训练的参数列表。其中,“trainable_include_patterns”为需要训练的参数列表,“trainable_exclude_patterns”为不需要训练的参数列表。 --trainable_exclude_patterns: Variables

    来自:帮助中心

    查看更多 →

  • 模型适配HiLens Studio

    endif() add_executable(main ${lib_srcs} ${CMAKE_SOURCE_DIR}/../src/main/cpp/main.cpp) target_link_libraries(main ${LIBS}) prebuild.sh 修改如下内容:

    来自:帮助中心

    查看更多 →

  • 训练作业使用MoXing复制数据较慢,重复打印日志

    下载数据。如果文件比较多,那么该过程会消耗较长时间。 处理方法 在创建训练作业时,数据可以保存到OBS上。不建议使用TensorFlowMXNetPyTorch的OBS接口直接从OBS上读取数据。 如果文件较小,可以将OBS上的数据保存成“.tar”包。训练开始时从OBS上下

    来自:帮助中心

    查看更多 →

  • OOM导致训练作业失败

    错误码返回137,如下图所示。 Modelarts Service Log Trainina end with return code: 137 Modelarts Service Log]handle outputs of training job 日志中有报错,含有“killed”相关字段,例如:

    来自:帮助中心

    查看更多 →

  • 基础支撑系统

    基础支撑系统 工业AI开发平台设计 本次工业AI开发平台采用华为ModelArts AI技术平台。华为ModelArts是面向AI开发者的一站式开发平台,提供海量数据预处理及半自动化标注、大规模分布式训练、自动化模型生成及模型部署能力,帮助用户快速创建和部署模型,管理全周期AI工作流。

    来自:帮助中心

    查看更多 →

  • 使用Kubeflow和Volcano实现典型AI训练任务

    使用Kubeflow和Volcano实现典型AI训练任务 Kubernetes已经成为云原生应用编排、管理的事实标准, 越来越多的应用选择向Kubernetes迁移。人工智能和机器学习领域天然的包含大量的计算密集型任务,开发者非常愿意基于Kubernetes构建AI平台,充分利用Kubernet

    来自:帮助中心

    查看更多 →

  • Argo作业

    选择队列,如果还未创建队列,可单击“创建队列”创建,具体操作请参见队列管理。 任务组件 可将“AI任务”或“HPC任务”用鼠标拖动至画布中。 在画布中,双击“AI任务”或“HPC任务”,编辑任务,编辑完成后,单击“确定”。 编辑AI任务 表2 编辑AI任务 参数 说明 基本信息 任务名称 输入任务名称。 队列 选

    来自:帮助中心

    查看更多 →

  • 【下线公告】华为云ModelArts服务模型转换下线公告

    55-988或950808)与我们联系。 常见问题 为什么要下线模型转换? ModelArts模型转换向AI开发者提供了便捷的模型转换页面,将TensorflowCaffe框架的模型格式转换为MindSpore的模型格式,即模型后缀为.om,使之能在昇腾硬件中进行推理。由于产品

    来自:帮助中心

    查看更多 →

  • 使用JupyterLab在线开发和调试代码

    段更主流的开发环境。 ModelArts支持通过JupyterLab工具在线打开Notebook,开发基于PyTorchTensorFlow和MindSpore引擎AI模型。具体操作流程如图1 使用JupyterLab在线开发调试代码所示。 图1 使用JupyterLab在线开发调试代码

    来自:帮助中心

    查看更多 →

  • 使用MoXing时,如何进行增量训练?

    import moxing.tensorflow as mox print(help(mox.NetworkKeys)) 打印出来的示例如下所示: Help on class NetworkKeys in module moxing.tensorflow.nets.nets_factory:

    来自:帮助中心

    查看更多 →

  • 功能介绍

    集成VSCode开发工具,利用工具的便捷性,实现在线代码编写和调试。支持使用多种业界主流AI算法框架,如TensorflowPyTorchSpark_MLlibMXNet等,及华为自研AI框架MindSpore。提供丰富的CPU、GPU和华为自研Ascend芯片资源,进行模型训练。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了