华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api 微调控制 更多内容
  • 模型微调

    模型微调 模型微调是在不依赖训练服务的情况下对模型进行二次训练,达到二次调优的效果。调优后的迭代模型可以在智驾模型管理列表中查看。 前提条件 完成OBS授权委托,具体操作步骤请参考授权操作步骤。 在服务控制台“总览”>“模型微调”,开通“智驾模型微调”服务,具体操作步骤请参考开通智驾模型微调服务。

    来自:帮助中心

    查看更多 →

  • 模型微调

    迭代周期记录LOSS值。 微调产物说明 模型微调完成后,会得到一个新模型,即微调产物。 在微调大师页面,单击操作列的“查看模型”跳转到微调获得的新模型的详情页面。选择“模型文件”页签可以查看微调产物。各文件说明请参见表3。 图1 微调产物示例 表3 微调产物说明 文件名 文件说明

    来自:帮助中心

    查看更多 →

  • API控制策略

    API控制策略 API流量控制 API访问控制

    来自:帮助中心

    查看更多 →

  • API访问控制

    API访问控制 怎样给指定的用户开放API 配置了身份认证的API,如何在特殊场景下(如指定IP地址)允许不校验身份? 访问控制策略的IP地址是否取的客户端的IP地址? 父主题: API控制策略

    来自:帮助中心

    查看更多 →

  • SFT微调训练

    SFT微调训练 SFT微调数据处理 SFT微调权重转换 SFT微调训练任务 父主题: Qwen系列模型基于DevServer适配PyTorch NPU训练指导(6.3.904)

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    LoRA微调训练 前提条件 已上传训练代码、训练权重文件和数据集到SFS Turbo中,具体参考代码上传至OBS和使用Notebook将OBS数据导入SFS Turbo。 Step1 在Notebook中修改训练超参配置 以llama2-13b LORA微调为例,执行脚本0_pl_lora_13b

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    LoRA微调训练 前提条件 已上传训练代码、训练权重文件和数据集到SFS Turbo中,具体参考代码上传至OBS和使用Notebook将OBS数据导入SFS Turbo。 Step1 在Notebook中修改训练超参配置 以llama2-13b LORA微调为例,执行脚本0_pl_lora_13b

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    LoRA微调训练 Step1 上传训练权重文件和数据集 如果在准备代码和数据阶段已经上传权重文件和数据集到容器中,可以忽略此步骤。 如果未上传训练权重文件和数据集到容器中,具体参考上传代码和权重文件到工作环境和上传数据到指定目录章节完成。训练脚本中会自动执行训练前的权重转换操作和数据处理操作。

    来自:帮助中心

    查看更多 →

  • 配置API的控制策略

    配置API控制策略 配置API的流量控制 配置API的访问控制 配置API的凭据配额控制 配置API的凭据访问控制 父主题: 服务集成指导

    来自:帮助中心

    查看更多 →

  • API流量控制

    API流量控制 是否支持对请求并发次数做自定义控制? 每个子 域名 (调试域名)每天最多可以访问1000次,如果账号为企业账号,是否还有这个限制? API调用是否存在带宽限制 流量控制策略不生效怎么办? 父主题: API控制策略

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    idx格式文件,以满足训练要求。 LoRA微调训练与SFT微调使用同一个数据集,如果已经在SFT微调时处理过数据,可以直接使用,无需重复处理。如果未处理过数据,请参见SFT全参微调数据处理章节先处理数据。 Step2 LoRA微调权重转换 LoRA微调训练前,需要先把训练权重文件转换为Megatron格式。

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    idx格式文件,以满足训练要求。 LoRA微调训练与SFT微调使用同一个数据集,如果已经在SFT微调时处理过数据,可以直接使用,无需重复处理。如果未处理过数据,请参见SFT微调数据处理章节先处理数据。 Step2 LoRA微调权重转换 LoRA微调训练前,需要先把训练权重文件转换为Megatron格式。

    来自:帮助中心

    查看更多 →

  • 配置API的凭据配额控制

    Administrator权限的用户才可查看和配置凭据配额策略。 创建凭据配额策略 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“服务集成 APIC > 凭据管理”,在“凭据配额策略”页签下单击“创建凭据配额策略”。 在创建凭据配额策略弹窗中配置策略信息。

    来自:帮助中心

    查看更多 →

  • SFT微调权重转换

    SFT微调权重转换 微调训练前需将HuggingFace格式权重转换为Megatron格式后再进行SFT微调训练。 本章节主要介绍如何将HuggingFace权重转换为Megatron格式。此处的HuggingFace权重文件和转换操作结果同时适用于SFT微调和LoRA微调训练。

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    LoRA微调训练 本章节介绍LoRA微调训练的全过程。 Step1 LoRA微调数据处理 训练前需要对数据集进行预处理,转化为.bin和.idx格式文件,以满足训练要求。 LoRA微调训练与SFT微调使用同一个数据集,如果已经在SFT微调时处理过数据,可以直接使用,无需重复处理。

    来自:帮助中心

    查看更多 →

  • SFT全参微调

    SFT全参微调 SFT全参微调数据处理 SFT全参微调权重转换 SFT全参微调超参配置 SFT全参微调任务 查看性能 父主题: Baichuan2-13B模型基于DevServer适配PyTorch NPU训练指导(6.3.904)

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    LoRA微调训练 本章节以Baichuan2-13B为例,介绍LoRA微调训练的全过程。 Step1 LoRA微调数据处理 训练前需要对数据集进行预处理,转化为.bin和.idx格式文件,以满足训练要求。 LoRA微调训练与SFT微调使用同一个数据集,如果已经在SFT微调时处理过

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    LoRA微调训练 Step1 上传训练权重文件和数据集 如果在准备代码和数据阶段已经上传权重文件和数据集到容器中,可以忽略此步骤。 如果未上传训练权重文件和数据集到容器中,具体参考上传代码和权重文件到工作环境和上传数据到指定目录章节完成。训练脚本中会自动执行训练前的权重转换操作和数据处理操作。

    来自:帮助中心

    查看更多 →

  • API(基础版控制台)

    API(基础版控制台) 设备管理 技能市场

    来自:帮助中心

    查看更多 →

  • 配置API的访问控制

    配置API的访问控制 访问控制控制访问API的IP地址和账户,保护后端服务。您可以创建访问控制策略,允许/禁止某个IP地址或账号访问绑定策略的API。 访问控制策略和API本身是相互独立的,只有将API绑定访问控制策略后,访问控制策略才对API生效。 约束与限制 同一个API在同

    来自:帮助中心

    查看更多 →

  • SFT全参微调训练

    SFT全参微调训练 SFT全参微调数据处理 SFT全参微调权重转换 SFT全参微调任务 父主题: LLama2系列模型基于DevServer适配PyTorch NPU训练指导(6.3.904)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了