镜像服务 IMS

镜像是用于创建服务器或磁盘的模板。镜像服务提供镜像生命周期管理能力。可以通过服务器或外部文件创建系统盘镜像或数据盘镜像,也可以使用弹性云服务器或云服务器备份创建带数据盘的整机镜像。创建镜像功能免费,仅需支付使用对象存储服务或云服务器备份的费用。

 
 
 

    docker 机器学习镜像 更多内容
  • 自定义镜像创建Notebook样例

    步骤2:获取Notebook基础镜像 创建Notebook时所需的自定义镜像,依赖于 医疗智能体 平台自研的基础镜像,您需要基于获取的基础镜像制作自定义镜像。 先连接容器 镜像服务 ,参考步骤1.连接容器镜像服务操作,然后使用如下的镜像地址拉取基础镜像。 # 基础镜像 docker pull swr.${region}

    来自:帮助中心

    查看更多 →

  • FLUX.1基于DevSever适配PyTorch NPUFintune&Lora训练指导(6.3.911)

    不同软件版本对应的基础镜像地址不同,请严格按照软件版本和镜像配套关系获取基础镜像。 步骤一:检查环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。

    来自:帮助中心

    查看更多 →

  • 准备镜像

    /AscendCloud/AscendCloud-LLM/llm_inference/ascend_vllm/ 执行build_image.sh脚本制作推理镜像。安装过程需要连接互联网git clone,请确保机器环境可以访问公网。 sh build_image.sh --base-image=${base_image}

    来自:帮助中心

    查看更多 →

  • Yolov8基于DevServer适配MindSpore Lite推理指导(6.3.909)

    909版本,请参考表2获取配套版本的软件包和镜像,请严格遵照版本配套关系使用本文档。 确保容器可以访问公网。 步骤一:准备环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。

    来自:帮助中心

    查看更多 →

  • 使用预置镜像制作自定义镜像用于训练模型

    -V docker run --rm {image} $(which python) -V 系统会自动添加预置框架关联的超参。 使用预置框架构建训练镜像 ModelArts平台提供了Tensorflow,PyTorch,MindSpore等常用深度学习任务的基础镜像镜像里已经安

    来自:帮助中心

    查看更多 →

  • 在ModelArts Standard上运行GPU单机多卡训练作业

    客户端上传镜像,是指在安装了容器引擎客户端的机器上使用docker命令将镜像上传到容器镜像服务镜像仓库。 如果容器引擎客户端机器为云上的E CS 或CCE节点,根据机器所在区域有两种网络链路可以选择: 如果机器与容器镜像仓库在同一区域,则上传镜像走内网链路。 如果机器与容器镜像仓库不在同一区

    来自:帮助中心

    查看更多 →

  • 使用基础镜像

    /home/ma-user/modelarts/user-job-dir/AscendSpeed; sh ./scripts/install.sh; sh ./scripts/obs_pipeline.sh 创建训练作业后,会在节点机器中使用基础镜像创建docker容器,并在容器内进行分布式训练。而install

    来自:帮助中心

    查看更多 →

  • SD1.5基于DevServer适配PyTorch NPU Finetune训练指导(6.3.904)

    3-ca51f42 SWR上拉取 Step1 检查环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169

    来自:帮助中心

    查看更多 →

  • Kubernetes和nvidia-docker安装

    Kubernetes和nvidia-docker安装 Kubernetes是一个强大的开源容器编排平台,可在云端或物理服务器上部署、扩展和管理容器化应用程序。为了在机器上成功安装Kubernetes,需要按照以下步骤: 安装nvidia-driver:nvidia-driver是N

    来自:帮助中心

    查看更多 →

  • InternVL2基于DevServer适配PyTorch NPU训练指导(6.3.910)

    ll_multi.sh 参数说 NODE_NUM:机器数量。 NODE_RANK:机器rank num,主机为0,其余递增。 MASTER_ADDR:主机IP地址。 GPUS: 每台机器npu卡数 PER_DEVICE_BATCH_SIZE:每张卡batch size 训练成功如下图所示。

    来自:帮助中心

    查看更多 →

  • 如何解决Docker客户端push镜像失败的问题

    如何解决Docker客户端push镜像失败的问题 问题描述 在后台Docker登录成功以后,使用Docker客户端上传镜像包时,例如执行如下命令上传: docker push 10.125.54.133:20202/test1/busybox:latest 10.125.54.1

    来自:帮助中心

    查看更多 →

  • 准备镜像

    作为容器引擎,并默认给机器安装。如尚未安装,说明机器操作系统安装错误。需要重新纳管机器,重新安装操作系统。 安装nerdctl工具。nerdctl是containerd的一个客户端命令行工具,使用方式和docker命令基本一致,可用于后续镜像构建步骤中。 # 下载 nerdctl 工具,注意使用的是1

    来自:帮助中心

    查看更多 →

  • Docker上部署ABI

    Docker上部署ABI 制作Dockerfile Dockerfile是一个包含用于组合映像的命令的文本文档。可以使用在命令行中调用任何命令。 Docker通过读取Dockerfile中的指令自动生成映像。可以参照以下方式制作Dockerfile。 FROM centos:7 ENV

    来自:帮助中心

    查看更多 →

  • 准备镜像

    /home/mind/model/run_vllm.sh'。 图3 修改build_image.sh 执行build_image.sh脚本制作推理镜像。安装过程需要连接互联网git clone,请确保机器环境可以访问公网。 sh build_image.sh --base-image=${base_image} -

    来自:帮助中心

    查看更多 →

  • 在DevServer上部署SD WebUI推理服务

    机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.25

    来自:帮助中心

    查看更多 →

  • Qwen-VL基于DevServer适配PyTorch NPU的Finetune训练指导(6.3.910)

    910版本,请参考获取软件和镜像获取配套版本的软件包和镜像,请严格遵照版本配套关系使用本文档。 训练至少需要单机8卡。 确保容器可以访问公网。 Step1 检查环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。

    来自:帮助中心

    查看更多 →

  • 使用基础镜像

    /home/ma-user/modelarts/user-job-dir/AscendSpeed; sh ./scripts/install.sh; sh ./scripts/obs_pipeline.sh 创建训练作业后,会在节点机器中使用基础镜像创建docker容器,并在容器内进行分布式训练。而install

    来自:帮助中心

    查看更多 →

  • 容器镜像拉取失败

    /etc/hosts | grep obs 请在环境正确的机器上解析出正确IP后配置,若配置错误会导致 域名 解析错误。 如果您是通过/etc/resolv.conf文件配置的域名解析服务器来解析域名,请确认配置的域名解析服务器是否正确,该域名解析服务器是否可以解析这两个域名。 注意:如果通过公网

    来自:帮助中心

    查看更多 →

  • LLaVA-NeXT基于DevServer适配Pytorch NPU训练微调指导(6.3.910)

    SWR上拉取。 表2 模型镜像版本 模型 版本 CANN cann_8.0.rc3 驱动 23.0.6 PyTorch 2.1.0 步骤一 检查环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买

    来自:帮助中心

    查看更多 →

  • 分离部署推理服务

    local_ranktable_10.**.**.18_host.json # api-server 合并不同机器的global rank_table(可选) 如果分离部署在多台机器,获取每台机器的rank_table后,合并各个机器的global rank_table得到完整的global rank_table。

    来自:帮助中心

    查看更多 →

  • 分离部署推理服务

    local_ranktable_10.**.**.18_host.json # api-server 合并不同机器的global rank_table(可选) 如果分离部署在多台机器,获取每台机器的rank_table后,合并各个机器的global rank_table得到完整的global rank_table。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了