更新时间:2024-06-17 GMT+08:00
分享

场景介绍

方案概览

本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite DevServer上的预训练和全量微调方案。

本方案目前仅适用于部分企业客户,完成本方案的部署,需要先联系您所在企业的华为方技术支持。

约束限制

  • 本文档适配昇腾云ModelArts 6.3.905版本,请参考表1获取配套版本的软件包,请严格遵照版本配套关系使用本文档。
  • 本文档中的模型运行环境是ModelArts Lite DevServer。
  • 镜像适配的Cann版本是cann_8.0.rc2。
  • 确保容器可以访问公网。

训练支持的模型列表

本方案支持以下模型的训练,如表1所示。

表1 支持的模型

序号

支持模型

支持模型参数量

1

llama2

llama2-7b

2

llama2-13b

3

llama2-70b

4

llama3

llama3-8b

5

llama3-70b

6

Qwen

qwen-7b

7

qwen-14b

8

qwen-72b

9

Qwen1.5

qwen1.5-7b

10

qwen1.5-14b

11

qwen1.5-32b

12

qwen1.5-72b

13

Yi

yi-6b

14

yi-34b

15

ChatGLMv3

glm3-6b

16

Baichuan2

baichuan2-13b

操作流程

图1 操作流程图
表2 操作任务流程说明

阶段

任务

说明

准备工作

准备环境

本教程案例是基于ModelArts Lite DevServer运行的,需要购买并开通DevServer资源。

准备代码

准备AscendSpeed训练代码、分词器Tokenizer和推理代码。

准备数据

准备训练数据,可以用本案使用的数据集,也可以使用自己准备的数据集。

准备镜像

准备训练模型适用的容器镜像。

预训练

预训练

介绍如何进行预训练,包括训练数据处理、超参配置、训练任务、断点续训及性能查看。

微调训练

SFT全参微调

介绍如何进行SFT全参微调。

LoRA微调训练

介绍如何进行LoRA微调训练。

分享:

    相关文档

    相关产品