自助服务

华为云自助服务为用户提供产品常见问题,自助工具,便捷服务入口,帮助您更加方便、快捷的使用云服务

    虚拟机去除虚拟化工具 更多内容
  • 硬件准备

    virt-manager工具 kvm虚拟化软件 虚拟化管理工具virt-manager可以从开源官网下载安装,也可以使用yum源进行安装。 宿主机安装配置要求 制作x86系统镜像时,以CentOS 7.3 64bit操作系统为例,安装时必须选择安装GUI桌面和虚拟化环境。 选择“Server

    来自:帮助中心

    查看更多 →

  • GPU虚拟化

    GPU虚拟化 GPU虚拟化概述 准备GPU虚拟化资源 使用GPU虚拟化 兼容Kubernetes默认GPU调度模式 父主题: GPU调度

    来自:帮助中心

    查看更多 →

  • 方案概述

    装前的准备工作及详细的安装流程参见安装VirtualBox。 创建虚拟机:在VirtualBox上创建一台空虚拟机,作为镜像的原始框架。具体操作参见创建空虚拟机。 安装操作系统:通过挂载ISO文件的方式为空虚拟机安装操作系统,您希望最终的镜像是什么系统,就要在这一步准备什么系统的

    来自:帮助中心

    查看更多 →

  • GPU虚拟化

    GPU虚拟化 GPU虚拟化概述 准备GPU虚拟化资源 创建GPU虚拟化应用 监控GPU虚拟化资源 父主题: 管理本地集群

    来自:帮助中心

    查看更多 →

  • 删除虚拟机网络管理工具插件(可选)

    删除虚拟机网络管理工具插件(可选) 分布式裸机镜像,使用os自带的NetworkManager网络管理工具,需要删除NetworkManager-config-server插件,否则会影响网卡自动获取ip。集中式裸机镜像不适用NetworkManager工具管理网络,可跳过。 执行命令

    来自:帮助中心

    查看更多 →

  • 使用GPU虚拟化

    使用GPU虚拟化 本文介绍如何使用GPU虚拟化能力实现算力和显存隔离,高效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 单个GPU卡最多虚拟化成20个GPU虚拟设备。

    来自:帮助中心

    查看更多 →

  • 使用virt-manager工具创建虚拟机

    使用virt-manager工具创建虚拟机 硬件准备 创建虚拟机(Linux) 创建并安装虚拟机(Windows) 父主题: 创建虚拟机

    来自:帮助中心

    查看更多 →

  • GPU虚拟化概述

    GPU虚拟化概述 U CS On Premises GPU采用xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户定义使用的GPU数量,提高GPU利用率。

    来自:帮助中心

    查看更多 →

  • Hypervisor安全

    Hypervisor能实现同一物理机上不同虚拟机之间的资源隔离,避免虚拟机之间的数据窃取或恶意攻击,保证虚拟机的资源使用不受周边虚拟机的影响。用户使用虚拟机时,仅能访问属于自己的虚拟机的资源(如硬件、软件和数据),不能访问其他虚拟机的资源,保证虚拟机隔离安全。 CPU隔离 X86架构为

    来自:帮助中心

    查看更多 →

  • GPU虚拟化概述

    GPU虚拟化概述 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。

    来自:帮助中心

    查看更多 →

  • 方案概述

    装前的准备工作及详细的安装流程参见安装VirtualBox。 创建虚拟机:在VirtualBox上创建一台空虚拟机,作为镜像的原始框架。具体操作参见创建空虚拟机。 安装操作系统:通过挂载ISO文件的方式为空虚拟机安装操作系统,您希望最终的镜像是什么系统,就要在这一步准备什么系统的

    来自:帮助中心

    查看更多 →

  • 关闭虚拟机的网络管理工具(可选)

    关闭虚拟机的网络管理工具(可选) 操作场景 对于集中式 裸金属服务器 ,系统的网络管理可能与network-config配置冲突,需要关闭。分布式裸金属 服务器 请跳过此步骤。 SUSE 11 SP4、Ubuntu 16.04和Ubuntu 14.04不需要执行此步骤;带SDI 3.0卡(存储和网络归一)或SDI

    来自:帮助中心

    查看更多 →

  • 准备GPU虚拟化资源

    准备GPU虚拟化资源 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。本文介绍如何在GPU节点上实现GPU的调度和隔离能力。 前提条件 配置 支持版本 集群版本 v1.23.8-r0、v1.25

    来自:帮助中心

    查看更多 →

  • 虚拟机服务访问虚拟机服务

    虚拟机服务访问虚拟机服务 启动ASM-PROXY后,虚拟机服务之间可以互相访问,如下图所示。 验证流程 准备两台ECS虚拟机虚拟机1请参考部署ASM-PROXY部署PROXY,虚拟机2可以不用部署。但请确保虚拟机间网络正常,且安全组、防火墙已放通。 在虚拟机1上部署httptest应用。

    来自:帮助中心

    查看更多 →

  • 工具

    华为云帮助中心,为用户提供产品简介、价格说明、购买指南、用户指南、API参考、最佳实践、常见问题、视频帮助等技术文档,帮助您快速上手使用华为云服务。

    来自:帮助中心

    查看更多 →

  • 工具

    工具 SQL诊断 SQL探针 表诊断 智能分布列推荐 父主题: 数据库监控(DMS)

    来自:帮助中心

    查看更多 →

  • 准备GPU虚拟化资源

    以跳过此步骤。 在集群中纳管支持GPU虚拟化的节点,具体操作步骤请参见纳管节点。 纳管成功后,给对应支持GPU虚拟化节点打上“accelerator: nvidia-{显卡型号}”标签,具体操作步骤请参见为节点添加标签/污点。 图1 为虚拟化节点打标签 步骤二:安装插件 如果您的

    来自:帮助中心

    查看更多 →

  • 创建GPU虚拟化应用

    PU显卡型号。 仅支持配置一致GPU使用模式,不支持混合配置虚拟化和非虚拟化模式。 使用GPU虚拟化后,该GPU节点不再支持调度使用共享GPU资源的工作负载。 通过控制台创建GPU虚拟化应用 登录UCS On Premises集群控制台。 单击集群名称进入集群,在左侧选择“工作负载”,在右上角单击“创建负载”。

    来自:帮助中心

    查看更多 →

  • 监控GPU虚拟化资源

    监控GPU虚拟化资源 本章介绍如何在UCS控制台界面查看GPU虚拟化资源的全局监控指标。 前提条件 完成GPU虚拟化资源准备。 当前本地集群内存在节点开启GPU虚拟化能力。 当前本地集群开启了监控能力。 GPU虚拟化监控 登录UCS控制台,在左侧导航栏选择“容器智能分析”。 选择

    来自:帮助中心

    查看更多 →

  • 准备镜像文件(Windows)

    够同时支持IPv4和IPv6地址。配置方法请参考“如何开启 云服务器 动态获取IPv6”。 工具 强烈建议安装Cloudbase-Init工具。 Cloudbase-Init是开源的云初始化工具,使用安装了Cloudbase-Init的镜像创建云服务器时可以通过“用户数据注入”功能,

    来自:帮助中心

    查看更多 →

  • 安装虚拟机

    安装虚拟机 安装虚拟机说明 操作系统分区建议 SUSE 11 SP4 Ubuntu 18.04/Ubuntu 16.04/Ubuntu 14.04/Debian 8.6 SUSE 15/SUSE 12系列 父主题: 安装并配置虚拟机(Linux)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了