Tokenizer 更多内容
  • SFT全参微调权重转换

    2-13B/converted_weights \ --tokenizer-model /home/ma-user/ws/tokenizers/BaiChuan2-13B/tokenizer.model --w-pack True 参数说明: -t

    来自:帮助中心

    查看更多 →

  • 训练中的权重转换说明

    一样。 --load-dir:加载转换模型权重路径。 --save-dir : 权重转换完成之后保存路径。 --tokenizer-model : tokenizer路径。 输出转换后权重文件保存路径: 权重转换完成后,在 /home/ma-user/ws/processed_f

    来自:帮助中心

    查看更多 →

  • SFT全参微调超参配置

    的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_MODEL /home/ma-user/ws/tokenizers/BaiChuan2-13B/ 必填。加载tokenizer时,tokenizer存放地址。 MODEL_TYPE 13B 必填。模型加载类型,默认为13B。

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/Qwen-14B 必填。加载tokenizer时,tokenizer存放地址。 请根据实际规划修改。 MODEL_TYPE 14B

    来自:帮助中心

    查看更多 →

  • SFT微调训练任务

    处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/Qwen-14B 必填。加载tokenizer时,tokenizer存放地址。请根据实际规划修改。 MODEL_TYPE 14B 必

    来自:帮助中心

    查看更多 →

  • SFT全参微调任务

    /处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/GLM3-6B 必填。加载tokenizer时,tokenizer存放地址。请根据实际规划修改。 MODEL_PATH /home

    来自:帮助中心

    查看更多 →

  • 预训练

    3b-chat-hf 必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 对于ChatGLMv3-6B和Qwen系列模型,还需要手动修改tokenizer文件,具体请参见训练tokenizer文件说明。 Step2 创建预训练任务

    来自:帮助中心

    查看更多 →

  • SFT全参微调训练

    3b-chat-hf 必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 对于ChatGLMv3-6B和Qwen系列模型,还需要手动修改tokenizer文件,具体请参见训练tokenizer文件说明。 Step2 创建SFT全参微调训练任务

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    3b-chat-hf 必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 对于ChatGLMv3-6B和Qwen系列模型,还需要手动修改tokenizer文件,具体请参见训练tokenizer文件说明。 由于模型中LoRA微调训

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/Llama2-70B 必填。加载tokenizer时,tokenizer存放地址。请根据实际规划修改。 MODEL_PATH /hom

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    /处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/GLM3-6B 必填。加载tokenizer时,tokenizer存放地址。请根据实际规划修改。 MODEL_PATH /home

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_MODEL /home/ma-user/ws/tokenizers/BaiChuan2-13B/ 必填。加载tokenizer时,tokenizer存放地址。 请根据实际规划修改。 MODEL_TYPE 13B

    来自:帮助中心

    查看更多 →

  • 训练脚本说明

    训练脚本说明 训练启动脚本说明和参数配置 训练的数据集预处理说明 训练的权重转换说明 训练tokenizer文件说明 父主题: 主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.905)

    来自:帮助中心

    查看更多 →

  • 训练脚本说明

    训练脚本说明 训练启动脚本说明和参数配置 训练的数据集预处理说明 训练的权重转换说明 训练tokenizer文件说明 父主题: 主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.906)

    来自:帮助中心

    查看更多 →

  • 创建日志流索引

    是否开启全文索引 caseSensitive 是 Boolean 是否大小写敏感 includeChinese 是 Boolean 是否包含中文 tokenizer 是 String 自定义分词符 最小长度:0 最大长度:128 ascii 否 Array of strings 特殊分词符 最小长度:1

    来自:帮助中心

    查看更多 →

  • 训练脚本说明

    训练脚本说明 训练启动脚本说明和参数配置 训练的数据集预处理说明 训练中的权重转换说明 训练tokenizer文件说明 父主题: 主流开源大模型基于DevServer适配PyTorch NPU训练指导(6.3.905)

    来自:帮助中心

    查看更多 →

  • SFT全参微调任务

    理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/Llama2-70B 必填。加载tokenizer时,tokenizer存放地址。请根据实际规划修改。 MODEL_PATH /hom

    来自:帮助中心

    查看更多 →

  • 预训练

    3b-chat-hf 必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 对于ChatGLMv3-6B和Qwen系列模型,还需要手动修改tokenizer文件,具体请参见训练tokenizer文件说明。 Step2 创建预训练任务

    来自:帮助中心

    查看更多 →

  • 断点续训练

    rocessed_for_ma_input/GLM3-6B/data/pretrain/alpaca_text_document TOKENIZER_PATH=/home/ma-user/ws/tokenizers/GLM3-6B MODEL_PATH=/home/ma-user

    来自:帮助中心

    查看更多 →

  • 断点续训练

    ocessed_for_ma_input/Qwen-14B/data/pretrain/alpaca_text_document TOKENIZER_PATH=/home/ma-user/ws/tokenizers/Qwen-14B MODEL_PATH=/home/ma-use

    来自:帮助中心

    查看更多 →

  • 训练的权重转换说明

    一样。 --load-dir:加载转换模型权重路径。 --save-dir : 权重转换完成之后保存路径。 --tokenizer-model : tokenizer路径。 输出转换后权重文件保存路径: 权重转换完成后,在/home/ma-user/work/llm_train/

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了