php2exe即scripts 更多内容
  • 断点续训练

    断点续训练操作过程 GLM3-6B的断点续训脚本glm3_base.sh,存放在“xxx-Ascend/llm_train/AscendSpeed/scripts/glm3”目录下。 执行命令如下,进入AscendSpeed代码目录。xxx-Ascend请根据实际目录替换。 cd /home/m

    来自:帮助中心

    查看更多 →

  • 查询脚本信息

    入,则查询最新的版本脚本。 status 否 String 当不指定version时,可通过status查询脚本的状态。默认为SAVED,查询的是最新提交的版本,当status为PUBLISHED时查询的是脚本的生产版本。 请求参数 表2 请求Header参数 参数名 是否必选

    来自:帮助中心

    查看更多 →

  • 前提条件

    行一次。 打开发布包中的scripts文件夹,文件目录如表2所示。 SQL文件包含自定义迁移函数。 GaussDB (DWS)数据库需要通过这些函数支持Teradata的具体特性。 表2 DSC自定义数据库脚本 文件夹 脚本文件 描述 -- scripts - 文件夹:所有脚本 ------

    来自:帮助中心

    查看更多 →

  • 断点续训练

    ckpt的代码,用于读取前一次训练保存的预训练模型。 训练过程 断点续训脚本qwen.sh,存放在“xxx-Ascend/llm_train/AscendSpeed/scripts/qwen”目录下。 执行命令如下,进入AscendSpeed代码目录。 cd /home/ma-user/ws/xxx-Ascend

    来自:帮助中心

    查看更多 →

  • LoRA适配流是怎么样的?

    型内,在每次加载模型前lora特性就被固定了(无法做到pytorch每次推理都可以动态配置的能力)。 目前临时的静态方案可参考sd-scripts, 使用其中的“networks/merge_lora.py”把lora模型合入unet和text-encoder模型。 父主题: 常见问题

    来自:帮助中心

    查看更多 →

  • 安装部署

    DubboGroup:prod Deployment:Production 环境检查及部署 进入解压后的Scripts路径下,执行如下命令检查安装环境: #cd /home/PieEngine/Scripts #sh check-env.sh 执行如下命令安装k8s和Docker: #sh In

    来自:帮助中心

    查看更多 →

  • 预训练任务

    TRAIN_ITERS=200 MBS=1 GBS=16 TP=8 PP=1 WORK_DIR=/home/ma-user/ws sh scripts/baichuan2/baichuan2.sh 以上超参配置中,其中 MODEL_TYPE 、RUN_TYPE、DATA_PATH、T

    来自:帮助中心

    查看更多 →

  • 执行脚本

    调试 您可以在 API Explorer 中调试该接口,支持自动认证鉴权。 URI URI格式 POST /v1/{project_id}/scripts/{script_name}/execute 参数说明 表1 URI参数说明 参数名 是否必选 参数类型 说明 project_id 是

    来自:帮助中心

    查看更多 →

  • 替换TFJob

    "python", "/opt/tf-benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py",

    来自:帮助中心

    查看更多 →

  • 导出作业

    缩文件,文件名称格式DLF_{job_name}.zip,压缩文件里面的文件目录如下: jobs ├─{job_name}.job scripts ├─{script_name}.script resources ├─{resource_name}.resource 上述文件名中的参数说明如表3所示。

    来自:帮助中心

    查看更多 →

  • 安装nginx+http-flv(rtmp服务器)

    'Cache-Control' 'no-cache'; } # proxy the PHP scripts to Apache listening on 127.0.0.1:80 # #location ~ \

    来自:帮助中心

    查看更多 →

  • 单模型性能测试工具Mindspore lite benchmark

    否有所提升。 # shell cd /home_host/work benchmark --modelFile=diffusers/scripts/mindir_models/text_encoder.mindir --device=Ascend 上述命令中:modelFile指

    来自:帮助中心

    查看更多 →

  • 预训练

    训练作业启动命令中输入: cd /home/ma-user/work/llm_train/AscendSpeed; sh ./scripts/install.sh; sh ./scripts/llama2/0_pl_pretrain_13b.sh 选择用户自己的专属资源池,以及规格与节点数。防止训

    来自:帮助中心

    查看更多 →

  • LoRA微调训练

    训练作业启动命令中输入: cd /home/ma-user/work/llm_train/AscendSpeed; sh ./scripts/install.sh; sh ./scripts/llama2/0_pl_lora_13b.sh 选择用户自己的专属资源池,以及规格与节点数。防止训练过程中

    来自:帮助中心

    查看更多 →

  • SFT全参微调训练

    训练作业启动命令中输入: cd /home/ma-user/work/llm_train/AscendSpeed; sh ./scripts/install.sh; sh ./scripts/llama2/0_pl_sft_13b.sh 选择用户自己的专属资源池,以及规格与节点数。防止训练过程中出

    来自:帮助中心

    查看更多 →

  • 查询作业文件

    如果需要查询其他工作空间的数据,需要带上该消息头。 响应参数 表3 参数说明 参数名 是否必选 参数类型 说明 jobs 否 List<Job> 作业信息,参考表4 scripts 否 List<Script> 脚本信息,表5 表4 job字段数据结构说明 参数名 是否必选 参数类型 说明 params 否 Map<String

    来自:帮助中心

    查看更多 →

  • 注意事项

    模块之间启动销毁存在相关依赖需要按照一定顺序执行,HTSysEntrance需要最先执行。脚本执行顺序可见“Assets > HTFoundation > Scripts”中的SessionsManager.cs文件。 由于SDK的虚拟世界比较庞大,导致距离坐标世界原点较远的虚拟资源坐标值很大,可能会引

    来自:帮助中心

    查看更多 →

  • SFT全参微调任务

    TRAIN_ITERS=300 MBS=1 GBS=16 TP=8 PP=1 WORK_DIR=/home/ma-user/ws sh scripts/baichuan2/baichuan2.sh 其中 MODEL_TYPE 、RUN_TYPE、DATA_PATH、TOKENIZER

    来自:帮助中心

    查看更多 →

  • 删除自定义脚本

    删除自定义脚本 功能介绍 删除作业脚本:自定义脚本。 URI DELETE /v1/job/scripts/{script_uuid} 表1 路径参数 参数 是否必选 参数类型 描述 script_uuid 是 String 脚本uuid 最小长度:1 最大长度:25 请求参数 无

    来自:帮助中心

    查看更多 →

  • Linux操作系统云服务器无法获取元数据怎么办?

    执行以下命令,创建或修改/etc/sysconfig/network-scripts/route-eth0文件,固化静态路由防止重启失效。 # vi /etc/sysconfig/network-scripts/route-eth0 添加如下内容: 本例以eth0,IP为192.168

    来自:帮助中心

    查看更多 →

  • 准备代码

    ├──ModelLink #基于ModelLink的训练代码 ├──scripts/ #训练需要的启动脚本 本教程需要使用到的训练相关代码存放在llm_train/AscendSpeed目录下,具体文件介绍如下:

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了