php2exe即scripts 更多内容
  • 训练的权重转换说明

    TOKENIZER_PATH /home/ma-user/work/model/llama-2-13b-chat-hf tokenizer路径,:原始Hugging Face模型路径 MODEL_SAVE_PATH /home/ma-user/work/llm_train/saved

    来自:帮助中心

    查看更多 →

  • SFT全参微调训练任务

    NNODES=4 NODE_RANK=0 sh scripts/llama2/0_pl_sft_70b.sh # 第二台节点 MASTER_ADDR=xx.xx.xx.xx NNODES=4 NODE_RANK=1 sh scripts/llama2/0_pl_sft_70b.sh

    来自:帮助中心

    查看更多 →

  • 查询脚本列表

    GET /v1/b384b9e9ab9b4ee8994c8633aabc9505/scripts 响应示例 成功响应 HTTP状态码 200 { "total": 1, "scripts": [ { "configuration":

    来自:帮助中心

    查看更多 →

  • 如何设置裸金属服务器的静态IP?

    ip ro 修改网络配置文件。 执行vi /etc/sysconfig/network-scripts/ifcfg-bond0命令打开“/etc/sysconfig/network-scripts/ifcfg-bond0”文件,将网络信息由动态改为静态注释,或者删除“PERSIST

    来自:帮助中心

    查看更多 →

  • 使用基础镜像

    sh时,命令如下: cd /home/ma-user/work/llm_train/AscendSpeed; sh ./scripts/install.sh; sh ./scripts/llama2/0_pl_pretrain_13b.sh 创建训练作业后,会在节点机器中使用基础镜像创建do

    来自:帮助中心

    查看更多 →

  • 准备代码

    模型软件包结构说明 AscendCloud-6.3.909代码包中AscendCloud-LLM代码包结构介绍如下,训练脚本以分类的方式集中在scripts文件夹中: |──llm_train # 模型训练代码包 |──AscendSpeed

    来自:帮助中心

    查看更多 →

  • 弹性云服务器IP获取不到时,如何排查?

    执行以下命令,打开/etc/sysconfig/network-scripts/ifcfg-eth0中的配置。 vi /etc/sysconfig/network-scripts/ifcfg-eth0 修改/etc/sysconfig/network-scripts/ifcfg-eth0中的配置。 BOOTPROTO=static

    来自:帮助中心

    查看更多 →

  • 查询视频制作剧本列表

    script_cover_url String 剧本封面下载url。 script_type String 脚本类型,视频制作的驱动方式。默认TEXT TEXT: 文本驱动,通过 TTS 合成语音 AUDIO: 语音驱动 text String 台词脚本。 create_time String

    来自:帮助中心

    查看更多 →

  • 准备代码

    模型软件包结构说明 AscendCloud-6.3.910代码包中AscendCloud-LLM代码包结构介绍如下,训练脚本以分类的方式集中在scripts文件夹中: |──llm_train # 模型训练代码包 |──AscendSpeed

    来自:帮助中心

    查看更多 →

  • 预训练任务

    yaml模板中的${command}命令如下。多机启动需要在每个节点上执行。MASTER_ADDR为当前ssh远程主机的IP地址(私网IP)。 # 多机执行命令为:sh scripts/llama2/0_pl_pretrain_70b.sh <MASTER_ADDR=xx.xx.xx.xx> <NNODES=4> <NODE_RANK=0>

    来自:帮助中心

    查看更多 →

  • 准备Notebook

    在后续训练步骤中,训练作业启动命令中包含sh scripts/install.sh,该命令用于git clone完整的代码包和安装必要的依赖包,每次启动训练作业时会执行该命令安装。 您可以在Notebook中导入完代码之后,在Notebook运行sh scripts/install.sh命令提前

    来自:帮助中心

    查看更多 →

  • 训练中的权重转换说明

    /home/ma-user/ws/xxx-Ascend/llm_train/AscendSpeed/tokenizers/Llama2-13B tokenizer路径,:原始Hugging Face模型路径 MODEL_SAVE_PATH /home/ma-user/ws/xxx-Ascend/llm_tr

    来自:帮助中心

    查看更多 →

  • 使用基础镜像

    /home/ma-user/modelarts/user-job-dir/AscendSpeed; sh ./scripts/install.sh; sh ./scripts/obs_pipeline.sh 使用基础镜像的方法,需要确认训练作业的资源池是否联通公网,否则执行 install

    来自:帮助中心

    查看更多 →

  • 训练的权重转换说明

    TOKENIZER_PATH /home/ma-user/work/model/llama-2-13b-chat-hf tokenizer路径,:原始Hugging Face模型路径 MODEL_SAVE_PATH /home/ma-user/work/llm_train/saved

    来自:帮助中心

    查看更多 →

  • 预训练任务

    yaml模板中的${command}命令如下。多机启动需要在每个节点上执行。MASTER_ADDR为当前ssh远程主机的IP地址(私网IP)。 # 多机执行命令为:sh scripts/llama2/0_pl_pretrain_70b.sh <MASTER_ADDR=xx.xx.xx.xx> <NNODES=4> <NODE_RANK=0>

    来自:帮助中心

    查看更多 →

  • 预训练任务

    NNODES=4 NODE_RANK=0 sh scripts/llama2/0_pl_pretrain_70b.sh # 第二台节点 MASTER_ADDR=xx.xx.xx.xx NNODES=4 NODE_RANK=1 sh scripts/llama2/0_pl_pretrain_70b

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    NNODES=4 NODE_RANK=0 sh scripts/llama2/0_pl_lora_70b.sh # 第二台节点 MASTER_ADDR=xx.xx.xx.xx NNODES=4 NODE_RANK=1 sh scripts/llama2/0_pl_lora_70b.sh

    来自:帮助中心

    查看更多 →

  • 准备Notebook

    ook运行sh scripts/install.sh命令提前下载完整代码包和安装依赖包,然后使用保存镜像功能。后续训练作业使用新保存的镜像,无需每次启动训练作业时再次下载代码包以及安装依赖包,可节约训练作业启动时间。 由于训练启动命令也会执行sh scripts/install.

    来自:帮助中心

    查看更多 →

  • SFT全参微调训练任务

    yaml模板中的${command}命令如下。多机启动需要在每个节点上执行。MASTER_ADDR为当前ssh远程主机的IP地址(私网IP)。 # 多机执行命令为:sh scripts/llama2/0_pl_sft_70b.sh <MASTER_ADDR=xx.xx.xx.xx> <NNODES=4> <NODE_RANK=0>

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    yaml模板中的${command}命令如下。多机启动需要在每个节点上执行。MASTER_ADDR为当前ssh远程主机的IP地址(私网IP)。 多机执行命令为:sh scripts/llama2/0_pl_lora_70b.sh <MASTER_ADDR=xx.xx.xx.xx> <NNODES=4> <NODE_RANK=0>

    来自:帮助中心

    查看更多 →

  • 准备代码

    |──ascendcloud_patch/ # 针对昇腾云平台适配的功能代码包 |──scripts/ # 各模型训练需要的启动脚本,训练脚本以分类的方式集中在scripts文件夹中。 # 数据目录结构 |── processed_for_input

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了