创建模型微调任务
模型微调是指调整大型语言模型的参数以适应特定任务的过程,适用于需要个性化定制模型或者在特定任务上追求更高性能表现的场景。这是通过在与任务相关的微调数据集上训练模型来实现的,所需的微调量取决于任务的复杂性和数据集的大小。在深度学习中,微调用于改进预训练模型的性能。
支持将自创建的模型、平台资产中心的部分模型作为微调前基础模型,也支持选择微调后的新模型作为基础模型再次进行微调。
前提条件
- 已订购大模型微调服务API在线调用-SFT局部调优,订购方法请参见购买AI原生应用引擎按需计费资源。
- 已具备格式为“对话文本”的微调数据集,具体请参考创建微调数据集或收藏微调数据集。
- 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参考AppStage组织成员申请权限。
创建微调任务
- 进入AI原生应用引擎。
- 在AI原生应用引擎的左侧导航栏选择“模型中心 > 模型微调流水线”,单击“创建微调任务”。
如果选择资产中心的模型作为基础模型,您也可以在左侧导航栏单击“资产中心”,选择“大模型”页签,将鼠标移至目标模型卡片并单击“微调”,进入任务创建页面。
- 选择“通用能力增强微调”。
通用能力增强微调:广泛应用于各个领域,针对特定任务或行业需求,通过领域微调数据集增强模型领域能力。
- 在创建微调任务页面,参照表1配置基础信息、模型及数据。
表1 创建微调任务参数说明 参数名称
参数说明
基础信息
任务名称
自定义任务名称。支持英文、数字、中划线(-)、下划线(_),长度1-64个字符,仅支持字母或下划线开头。
任务描述(可选)
自定义任务相关的描述。
模型配置
微调前模型
在下拉列表中选择微调的模型、创建的模型或平台的模型。
训练模式
默认为“LoRA”。
LoRA(Low-Rank Adaptation)是一种轻量级大模型微调技术,通过低秩矩阵分解技术显著减少了微调所需的参数,降低了微调过程中所需的存储和计算资源,可灵活地运用于不同的预训练模型和任务。
微调后名称
自定义模型微调后的新名称。支持英文、数字、中划线(-)、下划线(_),长度1-64个字符,仅支持字母或下划线开头。
数据配置
选择微调数据集
单击“选择微调数据集”,选择“我创建的”或“我收藏的”数据集。
任务配置
资源池
选择执行任务的资源池,在下拉列表可以看到各资源池的可用卡数,根据实际情况选择。
- 单击“下一步”,分别参照表2和表3配置基础参数、LoRA参数。
- 单击“创建”。
新创建的微调任务显示在任务列表中,任务状态为“待启动”,请参考表4启用任务。
更多操作
创建微调任务完成后,可执行如表4所示的操作。
操作 |
说明 |
---|---|
启用任务 |
|
停用任务 |
|
发布微调后的模型 |
微调任务执行完成后,可以发布微调后的模型,发布的模型可以进行部署和再次微调。 在模型微调流水线任务列表中,单击操作列的“发布”,当任务状态显示为“已发布”,表示微调模型发布成功,进入“模型中心 > 我的模型服务”页面,选择“我的模型”页签,在“我微调的”列表中可以查看微调后的新模型。 如果发布失败,任务状态显示为“运行失败”,您可以检查配置后重新发布。 |
查看微调后的模型 |
|
查看任务详情 |
在模型微调流水线任务列表中,单击任务名称,查看任务的基础信息、参数信息、运行日志以及Loss曲线等详情,并支持对模型之间的关系进行溯源。 |
重新创建任务 |
|
删除任务 |
如果任务状态为“已发布”,需要先取消发布,才能删除。
|