AI开发平台ModelArts 

ModelArts是面向开发者的一站式AI开发平台,为机器学习与深度学习提供海量数据预处理及半自动化标注、大规模分布式Training、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期AI工作流。

 
 

    深度学习如何无监督预训练 更多内容
  • 行业套件介绍

    刹车盘识别工作流 监督车牌检测工作流 根据工作流指引,开发监督车牌检测服务,通过上传训练数据,训练生成车牌检测模型,自主更新和调整模型精度,实现高精度的车牌检测功能。 监督车牌检测工作流 第二相面积含量测定工作流 根据工作流指引,开发第二相面积含量测定服务,通过上传训练数据,训练生成模

    来自:帮助中心

    查看更多 →

  • 创建纵向联邦学习作业

    选任何特征,会提示“选择两个数据集,一个有标签,一个标签,且至少选择一个标签方特征,才可启动训练。” 图7 特征选择 图8 查看特征分箱woe值 在页面右下角单击“启动训练”进行模型训练。 在弹出的界面配置执行参数,配置执行参数可选择常规配置与自定义配置。 常规配置:通过界面

    来自:帮助中心

    查看更多 →

  • 概要

    概要 本章节主要讲解如何在CodeArts IDE Online中使用TensorFlow和Jupyter Notebook完成神经网络模型的训练,并利用该模型完成简单的图像分类。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型

    来自:帮助中心

    查看更多 →

  • 训练模型

    训练模型 选择训练数据后,基于已标注的训练数据,选择训练模型、配置参数,用于训练实体抽取模型。 前提条件 已在 自然语言处理 套件控制台选择“通用实体抽取工作流”新建应用,并选择训练数据集,详情请见选择数据。 训练模型 图1 模型训练 在“模型训练”页面配置训练参数,开始训练模型。

    来自:帮助中心

    查看更多 →

  • ModelArts入门实践

    主流开源大模型基于Standard适配PyTorch NPU训练指导 本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的训练、SFT微调、LoRA微调训练过程。 面向熟悉代码编写和调测的AI工程师

    来自:帮助中心

    查看更多 →

  • 超过最大递归深度导致训练作业失败

    超过最大递归深度导致训练作业失败 问题现象 ModelArts训练作业报错: RuntimeError: maximum recursion depth exceeded in __instancecheck__ 原因分析 递归深度超过了Python默认的递归深度,导致训练失败。 处理方法

    来自:帮助中心

    查看更多 →

  • 自动学习训练作业创建失败

    自动学习训练作业创建失败 出现此问题,一般是因为后台服务故障导致的,建议稍等片刻,然后重新创建训练作业。如果重试超过3次仍无法解决,请联系华为云技术支持。 父主题: 模型训练

    来自:帮助中心

    查看更多 →

  • 选择数据

    选择数据 在使用监督车牌检测工作流开发应用时,您需要选择训练数据集,后续训练模型操作是基于您选择的训练数据集。 训练数据集可以选择创建一个新的数据集,也可以选择导入基于监督车牌检测工作流创建的其他应用中已创建的数据集。 新建训练数据集 导入数据集 前提条件 已在视觉套件控制台

    来自:帮助中心

    查看更多 →

  • ModelArts

    更多 自动学习 物体检测图片标注,一张图片是否可以添加多个标签? 创建预测分析自动学习项目时,对训练数据有什么要求? 自动学习训练后的模型是否可以下载? 自动学习为什么训练失败? 更多 训练作业 为什么资源充足还是在排队? 训练作业一直在等待中(排队)? ModelArts训练好后的模型如何获取?

    来自:帮助中心

    查看更多 →

  • 学件简介

    异常检测学件服务,通过数据特征画像识别数据类型,自动推荐训练算法与特征,采用监督、有监督和动态基线等进行联合检测,通过专家经验对训练与检测进行调优,得到最终检测结果。模型训练完成后,可以将特征画像的结果、特征和参数、模型和参数都保留下来。后面仅需要使用新的数据,重训练模型,不用再重新做特征分析和模型分

    来自:帮助中心

    查看更多 →

  • 创建模型微调流水线

    适用于需要个性化定制模型或者在特定任务上追求更高性能表现的场景。这是通过在与任务相关的数据集上训练模型完成,所需的微调量取决于任务的复杂性和数据集的大小。在深度学习中,微调用于改进训练模型的性能。 前提条件 已订购大模型微调服务API在线调用-SFT局部调优,订购方法请参见购买AI原生应用引擎按需计费资源。

    来自:帮助中心

    查看更多 →

  • 模型支持的操作

    在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在训练、微调、模型评估、模型压缩和在线推理等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是各个模型支持的具体操作: 表1 模型支持的操作 模型 训练 微调 模型评估 模型压缩 在线推理 盘古-NLP-N1-基础功能模型-8K

    来自:帮助中心

    查看更多 →

  • GPT-2基于Server适配PyTorch GPU的训练推理指导

    --fp16 开始训练。 本文是单机单卡训练,使用训练脚本参数控制: GPUS_PER_NODE=1 NNODES=1 NODE_RANK=0 执行以下命令,开始训练。 nohup sh ./pretrain_gpt2.sh & 图3 开始训练 实时查看训练日志,监控程序。 tail

    来自:帮助中心

    查看更多 →

  • 排序策略

    名称是part-00000开头的文件,需要用户提供文件的OBS路径。 最大迭代轮数 模型训练的最大迭代轮数,默认50。 提前终止训练轮数 在测试集上连续N轮迭代AUC提高时,迭代停止,训练提前结束,默认5。 初始化方法 模型参数的初始化方法。 normal:正态分布 平均值:默认0

    来自:帮助中心

    查看更多 →

  • 执行作业

    在左侧导航树上依次选择“作业管理 > 可信联邦学习”,打开可信联邦学习作业页面。 在“可信联邦学习”页面,查找待执行的纵向作业,单击“执行”。 图3 执行作业 在弹出的界面配置执行参数,配置执行参数可选择常规配置与自定义配置。填写完作业参数,单击“确定”即可开始训练作业。 常规配置:通过界面点选

    来自:帮助中心

    查看更多 →

  • 评估模型

    已在视觉套件控制台选择“监督车牌检测工作流”新建应用,并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评

    来自:帮助中心

    查看更多 →

  • ModelArts最佳实践案例列表

    主流开源大模型基于Standard+OBS适配PyTorch NPU训练指导(6.3.907) 主流开源大模型基于Standard+OBS+SFS适配PyTorch NPU训练指导(6.3.907) 训练、SFT全参微调训练、LoRA微调训练 介绍主流的开源大模型Llama系列、Qwen系列、

    来自:帮助中心

    查看更多 →

  • 训练脚本说明

    训练脚本说明 yaml配置文件参数配置说明 各个模型深度学习训练加速框架的选择 模型NPU卡数取值表 各个模型训练前文件替换 父主题: 主流开源大模型基于DevServer适配LlamaFactory PyTorch NPU训练指导(6.3.907)

    来自:帮助中心

    查看更多 →

  • Standard自动学习

    提供“自动学习白盒化”能力,开放模型参数、自动生成模型,实现模板化开发,提高开发效率 采用自动深度学习技术,通过迁移学习(只通过少量数据生成高质量的模型),多维度下的模型架构自动设计(神经网络搜索和自适应模型调优),和更快、更准的训练参数自动调优自动训练 采用自动机器学习技术,基于

    来自:帮助中心

    查看更多 →

  • 分页查询智能任务列表

    type 否 String 任务类型,不传则默认返回智能标注(主动学习标注)任务列表。可选值如下: auto-label:主动学习 pre-label:标注 auto-grouping:自动分组 请求参数 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型

    来自:帮助中心

    查看更多 →

  • 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型

    基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型 概要 准备工作 导入和预处理训练数据集 创建和训练模型 使用模型

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了