更新时间:2024-08-30 GMT+08:00
分享

GPU加速型

GPU加速型云服务器(GPU Accelerated Cloud Server,GACS)能够提供强大的浮点计算能力,从容应对高实时、高并发的海量计算场景。

该类型弹性云服务器默认开启超线程,每个vCPU对应一个底层超线程HT(Hyper-Threading)。

GPU加速型云服务器包括G系列和P系列两类。其中:
  • G系列:图形加速型弹性云服务器,适合于3D动画渲染、CAD等。
  • P系列:计算加速型或推理加速型弹性云服务器,适合于深度学习、科学计算、CAE等。

为了保障GPU加速型云服务器高可靠、高可用和高性能,该类型云服务器的公共镜像中会默认预置带GPU监控的CES Agent。正常使用GPU监控功能还需完成配置委托,详细操作,请参见如何配置委托?

如需手动移除GPU监控功能,可登录GPU加速型云服务器并执行卸载命令:bash /usr/local/uniagent/script/uninstall.sh

GPU加速实例总览

主售:计算加速型P2s推理加速型Pi2图形加速增强型G6

在售:除主售外的其他GPU机型均为在售机型,如果在售机型售罄,推荐使用主售机型

表1 GPU加速实例总览

类别

实例

GPU显卡

单卡Cuda Core数量

单卡GPU性能

使用场景

备注

图形加速型

G6v

NVIDIA T4(vGPU虚拟化)

2560

  • 8.1TFLOPS 单精度浮点计算
  • 130INT8 TOPS
  • 260INT4 TOPS

云桌面、图像渲染、3D可视化、重载图形设计。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

图形加速型

G6

NVIDIA T4(GPU直通)

2560

  • 8.1TFLOPS 单精度浮点计算
  • 130INT8 TOPS
  • 260INT4 TOPS

云桌面、图像渲染、3D可视化、重载图形设计。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

图形加速型

G5

NVIDIA V100(GPU直通)

5120

  • 14TFLOPS 单精度浮点计算
  • 7TFLOPS 双精度浮点计算
  • 112TFLOPS Tensor Core 深度学习加速

云桌面、图像渲染、3D可视化、重载图形设计。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

图形加速型

G3

NVIDIA M60(GPU直通)

2048

4.8TFLOPS单精度浮点计算

云桌面、图像渲染、3D可视化、重载图形设计。

-

图形加速型

G1

NVIDIA M60(GPU虚拟化)

2048

4.8TFLOPS单精度浮点计算

云桌面、图像渲染、3D可视化、重载图形设计。

-

计算加速型

P2vs

NVIDIA V100 NVLink (GPU直通)

5120

  • 15.7TFLOPS 单精度浮点计算
  • 7.8TFLOPS 双精度浮点计算
  • 125TFLOPS Tensor Core 深度学习加速
  • 300GiB/s NVLINK

机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

计算加速型

P2s

NVIDIA V100

5120

  • 14TFLOPS 单精度浮点计算
  • 7TFLOPS 双精度浮点计算
  • 112TFLOPS Tensor Core 深度学习加速

AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

计算加速型

P2v

NVIDIA V100 NVLink(GPU直通)

5120

  • 15.7TFLOPS 单精度浮点计算
  • 7.8TFLOPS 双精度浮点计算
  • 125TFLOPS Tensor Core 深度学习加速
  • 300GiB/s NVLINK

机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

计算加速型

P1

NVIDIA P100(GPU直通)

2584

9.3 TFLOPS 单精度浮点计算

机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

推理加速型

Pi2

NVIDIA T4(GPU直通)

2560

  • 8.1TFLOPS 单精度浮点计算
  • 130INT8 TOPS
  • 260INT4 TOPS

机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

推理加速型

Pi1

NVIDIA P4(GPU直通)

2560

5.5TFLOPS 单精度浮点计算

机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。

支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程

  • 控制台的远程登录方式可以作为运维处理的平台,但不能作为生产环境使用。使用控制台的远程登录方式无法使用物理GPU能力。
  • 在不支持远程登录的情况下,可以使用Windows远程桌面mstsc,或者第三方桌面协议。如VNC工具。

GPU加速型实例支持的镜像

表2 GPU加速型实例支持的镜像

类别

实例

支持的镜像

图形加速型

G6v

  • CentOS 8.2 64bit
  • CentOS 7.6 64bit
  • Ubuntu 20.04 server 64bit
  • Ubuntu 18.04 server 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

图形加速型

G6

  • Huawei Cloud EulerOS 2.0 64bit
  • CentOS 8.2 64bit
  • CentOS 8.1 64bit
  • CentOS 8.0 64bit
  • CentOS 7.9 64bit
  • CentOS 7.8 64bit
  • CentOS 7.7 64bit
  • CentOS 7.6 64bit
  • CentOS 7.5 64bit
  • Ubuntu 22.04 64bit
  • Ubuntu 20.04 64bit
  • Ubuntu 18.04 64bit
  • Ubuntu 16.04 64bit
  • Windows Server 2022 Standard 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2022 Datacenter 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

图形加速型

G5

  • CentOS 8.2 64bit
  • CentOS 7.6 64bit
  • CentOS 7.5 64bit
  • Ubuntu 20.04 64bit
  • Ubuntu 18.04 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

图形加速型

G3

  • Windows Server 2019 Standard 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

图形加速型

G1

  • Windows Server 2016 Datacenter 64bit

计算加速型

P2vs

  • CentOS 7.5 64bit
  • Ubuntu 16.04 Server 64bit
  • Windows Server 2016 Standard 64bit

计算加速型

P2s

  • Huawei Cloud EulerOS 2.0 64bit
  • CentOS 8.2 64bit
  • CentOS 8.1 64bit
  • CentOS 8.0 64bit
  • CentOS 7.9 64bit
  • CentOS 7.8 64bit
  • CentOS 7.7 64bit
  • CentOS 7.6 64bit
  • Ubuntu 22.04 Server 64bit
  • Ubuntu 20.04 Server 64bit
  • Ubuntu 18.04 Server 64bit
  • Ubuntu 16.04 Server 64bit
  • Windows Server 2022 Standard 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2022 Datacenter 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

计算加速型

P2v

  • CentOS 7.4 64bit
  • EulerOS 2.2 64bit
  • Ubuntu 20.04 Server 64bit
  • Ubuntu 18.04 Server 64bit
  • Ubuntu 16.04 Server 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

计算加速型

P1

  • CentOS 7.3 64bit
  • Ubuntu 16.04 Server 64bit
  • EulerOS 2.2 64bit
  • Debian 8.0.0 64bit
  • Windows Server 2022 Standard 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2022 Datacenter 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

推理加速型

Pi2

  • Huawei Cloud EulerOS 2.0 64bit
  • CentOS 8.2 64bit
  • CentOS 8.1 64bit
  • CentOS 8.0 64bit
  • CentOS 7.9 64bit
  • CentOS 7.8 64bit
  • CentOS 7.7 64bit
  • CentOS 7.6 64bit
  • CentOS 7.5 64bit
  • Ubuntu 22.04 Server 64bit
  • Ubuntu 20.04 Server 64bit
  • Ubuntu 18.04 Server 64bit
  • Ubuntu 16.04 Server 64bit
  • Windows Server 2022 Standard 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2022 Datacenter 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

推理加速型

Pi1

  • CentOS 7.3 64bit
  • Ubuntu 20.04 Server 64bit
  • Ubuntu 16.04 Server 64bit
  • Ubuntu 14.04 Server 64bit
  • Windows Server 2019 Standard 64bit
  • Windows Server 2019 Datacenter 64bit
  • Windows Server 2016 Datacenter 64bit

图形加速增强型G6v

概述

G6v型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,单卡提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。支持GPU虚拟化功能,支持1/2 T4、1/4 T4卡和1/8 T4卡。

请按需选择您所需要的类型和规格。

规格

表3 G6v型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽

(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

显存

(GiB)

虚拟化类型

g6v.2xlarge.2

8

16

6/2

35

4

1/8 × T4

2

KVM

g6v.2xlarge.4

8

32

10/4

50

4

1/4 × T4

4

KVM

g6v.4xlarge.4

16

64

15/8

100

8

1/2 × T4

8

KVM

G6v型弹性云服务器功能如下

  • 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持图形加速接口:
    • DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
    • OpenGL 4.5
    • Vulkan 1.0
  • 支持CUDA和OpenCL。
  • 支持NVIDIA T4 GPU卡,显存为16 GB。
    实例可虚拟化分片:
    • 计算性能为NVIDIA Tesla T4的1/8、1/4和1/2
    • 显存为2 GB、4 GB和8 GB
  • 支持图形加速应用。
  • 支持CPU重载推理应用。
  • 自动化的调度G6v型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。
  • 内置1个NVENC和2个NVDEC。

常规支持软件列表

G6v型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、云游戏、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6v型云服务器。常用的图形处理软件支持列表如下:

  • AutoCAD
  • 3DS MAX
  • MAYA
  • Agisoft PhotoScan
  • ContextCapture

使用须知

  • G6v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    G6v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • 使用公共镜像创建的G6v型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。配置GRID License步骤请参考GPU加速型实例安装GRID驱动
  • 使用私有镜像创建的G6v型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。

    详细安装操作请参考GPU加速型实例安装GRID驱动

  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

图形加速增强型G6

概述

G6型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。

请按需选择您所需要的类型和规格。

规格

表4 G6型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

网卡个数上限

GPU

显存

(GiB)

虚拟化类型

g6.xlarge.4

4

16

6/2

200

8

8

1 × T4

16

KVM

g6.4xlarge.4

16

64

15/8

200

8

8

1 × T4

16

KVM

g6.6xlarge.4

24

96

25/15

200

8

8

1 × T4

16

KVM

g6.9xlarge.7

36

252

25/15

200

16

8

1 × T4

16

KVM

g6.18xlarge.7

72

504

30/30

400

32

16

2 × T4

32

KVM

G6弹性云服务器功能如下

  • 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持图形加速接口:
    • DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
    • OpenGL 4.5
    • Vulkan 1.0
  • 支持CUDA和OpenCL。
  • 支持NVIDIA T4 GPU卡。
  • 支持图形加速应用。
  • 支持CPU重载推理应用。
  • 自动化的调度G6型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。
  • 内置1个NVENC和2个NVDEC。

常规支持软件列表

G6型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6型云服务器。常用的图形处理软件支持列表如下:

  • AutoCAD
  • 3DS MAX
  • MAYA
  • Agisoft PhotoScan
  • ContextCapture

使用须知

  • G6型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    G6型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • 使用公共镜像创建的G6型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。

    配置GRID License步骤请参考GPU加速型实例安装GRID驱动

  • 使用私有镜像创建的G6型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。

    详细安装操作请参考GPU加速型实例安装GRID驱动

  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

图形加速增强型G5

概述

G5型弹性云服务器使用NVIDIA Tesla V100 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存规格,支持最大4096 × 2160分辨率,满足专业级的图形处理需求。

请选择您所需要的类型和规格。

规格

表5 G5型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽

(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

显存

(GiB)

虚拟化类型

g5.8xlarge.4

32

128

25/15

200

16

1 × V100

16

KVM

g5.8xlarge.4弹性云服务器独享一张V100显卡,支持专业图形加速,同样适用于CPU重载推理场景。

G5型弹性云服务器功能如下
  • 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持图形加速接口:
    • DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
    • OpenGL 4.5
    • Vulkan 1.0
  • 支持CUDA和OpenCL。
  • 支持NVIDIA V100 GPU卡。
  • 支持图形加速应用。
  • 支持CPU重载推理应用。
  • 自动化的调度G5型弹性云服务器到装有NVIDIA V100 GPU卡的可用区。
  • 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。

常规支持软件列表

G5型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G5型云服务器。常用的图形处理软件支持列表如下:
  • AutoCAD
  • 3DS MAX
  • MAYA
  • Agisoft PhotoScan
  • ContextCapture
  • 瞰景科技Smart3D实景三维建模软件

使用须知

  • G5型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    G5型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • G5型弹性云服务器,需在弹性云服务器创建完成后配置GRID License使用。
  • 使用公共镜像创建的G5型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。

    配置GRID License步骤请参考GPU加速型实例安装GRID驱动

  • 使用私有镜像创建的G5型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。

    详细安装操作请参考GPU加速型实例安装GRID驱动

  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

图形加速增强型G3

概述

G3型弹性云服务器基于PCI直通技术,独享整张GPU卡,提供专业级的图形加速能力。同时,G3型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL接口,可以提供最大显存16GiB,支持最大4096 × 2160分辨率,是专业级图形工作站的首选。

规格
表6 G3型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽

(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

显存

(GiB)

虚拟化类型

g3.4xlarge.4

16

64

8/2.5

50

2

1 × M60核心

1×8

KVM

g3.8xlarge.4

32

128

10/5

100

4

2 × M60核心

2×8

KVM

NVIDIA Tesla M60板卡包含两颗M60 GPU,每颗M60 GPU包含2048 CUDA 核心和8GiB显存。G系列云服务器所指的M60一般指的是M60 GPU, 而不是M60板卡。

G3型弹性云服务器功能如下:
  • 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。
  • 支持专业级图形加速接口。
  • 支持NVIDIA M60 GPU卡。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持图形加速应用。
  • 提供GPU直通的能力。
  • 自动化的调度G3型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。
  • 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。

使用须知

  • G3型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    G3型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • G3型Windows操作系统云服务器启动时默认加载了GRID驱动,使用vGPU显卡作为默认视频输出,暂不支持使用管理控制台提供的“远程登录”功能。请使用RDP协议(如Windows远程桌面MSTSC)访问G3型实例,之后安装远程访问工具,如VNC工具等第三方VDI工具。
  • 使用公共镜像创建的G3型弹性云服务器默认已安装特定版本的GRID驱动。
  • 使用私有镜像创建的G3型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

图形加速型G1

概述

G1型弹性云服务器基于NVIDIA GRID虚拟GPU技术,提供较为经济的图形加速能力。同时,G1型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL,可以提供最大显存8GiB、分辨率为4096×2160的图形图像处理能力,适用于图形渲染要求较高的应用。

规格

表7 G1型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽

最大收发包能力

GPU

显存

(GiB)

虚拟化类型

g1.xlarge

4

8

1 × M60-1Q

1

XEN

g1.xlarge.4

4

16

1 × M60-1Q

1

XEN

g1.2xlarge

8

16

1 × M60-2Q

2

XEN

g1.2xlarge.8

8

64

直通

8

XEN

g1.4xlarge

16

32

1 × M60-4Q

4

XEN

M60-xQ使用GPU虚拟化能力,x为1/2/4/8,表示云服务器使用GRID技术将M60 GPU虚拟为不同规格和型号的vGPU, x对应于vGPU的显存大小,Q表示该类型的vGPU主要适用于工作站和桌面场景。更多关于GRID虚拟GPU的介绍,请参见NVIDIA官方文档

G1型弹性云服务器功能如下:
  • 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。
  • 支持NVIDIA M60 GPU卡。
  • 支持图形加速应用。
  • 提供GPU硬件虚拟化(vGPU)和GPU直通能力。
  • 自动化的调度G1型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。
  • 可以提供最大显存8GiB,分辨率为4096×2160的图形图像处理能力。
使用须知
  • G1型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    G1型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • G1型弹性云服务器不支持规格变更。
  • 规格为g1.2xlarge.8的弹性云服务器,不支持使用云平台提供的“远程登录”功能。请先使用MSTSC方式登录,然后自行安装VNC工具进行登录。

    对于非g1.2xlarge.8的G1型弹性云服务器,支持使用云平台提供的“远程登录”功能,具体操作请参见远程登录(VNC方式)

  • 使用公共镜像创建的G1型弹性云服务器默认已安装特定版本的GRID驱动。
  • 使用私有镜像创建的G1型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

计算加速型P2vs

概述

P2vs型弹性云服务器采用NVIDIA Tesla V100 GPU (32G显存),在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2vs型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。

规格

表8 P2vs型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

GPU连接技术

显存

(GiB)

虚拟化类型

p2vs.2xlarge.8

8

64

10/4

50

4

1 × V100

-

1 × 32GiB

KVM

p2vs.4xlarge.8

16

128

15/8

100

8

2 × V100

NVLink

2 × 32GiB

KVM

p2vs.8xlarge.8

32

256

25/15

200

16

4 × V100

NVLink

4 × 32GiB

KVM

p2vs.16xlarge.8

64

512

30/30

400

32

8 × V100

NVLink

8 × 32GiB

KVM

P2vs型弹性云服务器功能如下:

  • 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
  • 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
  • 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。
  • 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。
  • 单实例最大网络带宽30Gb/s。
  • 使用32GiB HBM2显存,显存带宽900Gb/s。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P2vs型云服务器可以做到分钟级快速发放。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2vs实例上。

常规软件支持列表

P2vs型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2vs型云服务器。

常用的软件支持列表如下:
  • Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
  • Agisoft PhotoScan
  • MapD

使用须知

  • P2vs型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    P2vs型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • 使用公共镜像创建的P2vs型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的P2vs型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

计算加速型P2s

概述

P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。

规格

表9 P2s型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力(万PPS)

网卡多队列数

网卡个数上限

GPU

GPU连接技术

显存(GiB)

虚拟化类型

p2s.2xlarge.8

8

64

10/4

50

4

4

1 × V100

PCIe Gen3

1 × 32GiB

KVM

p2s.4xlarge.8

16

128

15/8

100

8

8

2 × V100

PCIe Gen3

2 × 32GiB

KVM

p2s.8xlarge.8

32

256

25/15

200

16

8

4 × V100

PCIe Gen3

4 × 32GiB

KVM

p2s.16xlarge.8

64

512

30/30

400

32

8

8 × V100

PCIe Gen3

8 × 32GiB

KVM

P2s型弹性云服务器功能如下:
  • 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
  • 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
  • 单精度能力14 TFLOPS,双精度能力7 TFLOPS。
  • 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。
  • 单实例最大网络带宽30Gb/s。
  • 使用32GiB HBM2显存,显存带宽900Gb/s。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P2s型云服务器可以做到分钟级快速发放。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。

常规软件支持列表

P2s型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2s型云服务器。常用的软件支持列表如下:
  • Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
  • Agisoft PhotoScan
  • MapD
使用须知
  • P2s型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    P2s型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • 使用公共镜像创建的P2s型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

计算加速型P2v

概述

P2v型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2v型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。

规格

表10 P2v型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力(万PPS)

网卡多队列数

网卡个数上限

GPU

GPU连接技术

显存

(GiB)

虚拟化类型

p2v.2xlarge.8

8

64

10/4

50

4

4

1 × V100

-

1 × 16GiB

KVM

p2v.4xlarge.8

16

128

15/8

100

8

8

2 × V100

NVLink

2 × 16GiB

KVM

p2v.8xlarge.8

32

256

25/15

200

16

8

4 × V100

NVLink

4 × 16GiB

KVM

p2v.16xlarge.8

64

512

30/30

400

32

8

8 × V100

NVLink

8 × 16GiB

KVM

P2v型弹性云服务器功能如下:
  • 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
  • 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
  • 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。
  • 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。
  • 单实例最大网络带宽30Gb/s。
  • 使用16GiB HBM2显存,显存带宽900Gb/s。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P2v型云服务器可以做到分钟级快速发放。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。

常规软件支持列表

P2v型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2v型云服务器。常用的软件支持列表如下:
  • Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
  • Agisoft PhotoScan
  • MapD
使用须知
  • P2v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    P2v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • 使用公共镜像创建的P2v型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的P2v型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

计算加速型P1

概述

P1型弹性云服务器采用NVIDIA Tesla P100 GPU,在提供云服务器灵活性的同时,提供优质性能体验和优良的性价比。P1型弹性云服务器支持GPU Direct技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,在深度学习、图形数据库、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势,适用于科学计算等。

规格

表11 P1型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力(万PPS)

网卡多队列数

GPU

显存

(GiB)

本地盘

(GiB)

虚拟化类型

p1.2xlarge.8

8

64

5/1.6

35

2

1 × P100

1 × 16

1 × 800

KVM

p1.4xlarge.8

16

128

8/3.2

70

4

2 × P100

2 × 16

2 × 800

KVM

p1.8xlarge.8

32

256

10/6.5

140

8

4 × P100

4 × 16

4 × 800

KVM

P1型弹性云服务器功能如下:
  • 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持NVIDIA Tesla P100 GPU卡,单实例最大支持4张P100显卡,如果需要使用单机8张P100显卡,可以使用裸金属服务器。
  • 提供GPU硬件直通能力。
  • 单精度能力9.3 TFLOPS,双精度能力4.7 TFLOPS。
  • 最大网络带宽10Gb/s。
  • 使用16GiB HBM2显存,显存带宽732Gb/s。
  • 使用800GiB的NVMe SSD卡作为本地临时存储。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P1型云服务器可以做到分钟级快速发放。用户可以根据业务规模灵活选择规格,后续将逐步支持1:2、1:4、1:8规格云服务器的创建。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P1实例上。

常规支持软件列表

P1型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P1型云服务器。常用的软件支持列表如下:

  • Tensorflow、Caffe、PyTorch、MXNet等深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max
  • Agisoft PhotoScan
  • MapD
使用须知
  • P1型云服务器的系统盘大小建议大于40GiB。
  • P1型云服务器包含NVMe SSD本地盘,关机后仍然收费,如果停止计费,需删除弹性云服务器。
  • P1型云服务器配置了NVMe SSD本地盘,专为深度学习训练、HPC高性能计算等对存储I/O性能有极高要求的业务场景设计。本地盘与特定规格的云服务器绑定,不可单独购买,不可卸载并挂载到另一台云服务器上使用。

    P1型云服务器配置的NVMe SSD本地盘有丢失数据的风险(比如NVMe SSD故障或宿主机故障时),强烈建议您在本地NVMe SSD磁盘中存放临时数据,如需存放重要数据,请做好数据备份。

  • P1型弹性云服务器不支持规格变更。
  • P1型弹性云服务器不支持自动恢复功能:
    • 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭ECS完成宿主机硬件维修动作。
    • 因系统维护或硬件故障等,HA重新部署ECS实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。
  • 删除P1型弹性云服务器后,本地NVMe SSD磁盘的数据会被自动清除。
  • 使用公共镜像创建的P1型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的P1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

推理加速型Pi2

概述

Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。

规格

表12 Pi2型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

网卡个数上限

GPU

显存

(GiB)

本地盘

虚拟化类型

pi2.2xlarge.4

8

32

10/4

50

4

4

1 × T4

1 × 16

-

KVM

pi2.4xlarge.4

16

64

15/8

100

8

8

2 × T4

2 × 16

-

KVM

pi2.8xlarge.4

32

128

25/15

200

16

8

4 × T4

4 × 16

-

KVM

Pi2型弹性云服务器功能如下

  • 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
  • 提供GPU硬件直通能力。
  • 单GPU单精度计算能力最高8.1 TFLOPS。
  • 单GPU INT8计算能力最高130 TOPS。
  • 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
  • 内置1个NVENC和2个NVDEC。

常规支持软件列表

Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。

常用的软件支持列表如下:

  • Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。

使用须知

  • Pi2型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    Pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
  • 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

推理加速型Pi1

概述

Pi1型弹性云服务器采用专为AI推理打造的NVIDIA Tesla P4 GPU,能够提供超强的实时推理能力。Pi1型弹性云服务器借助P4的INT8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。

规格

表13 Pi1型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽

(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

显存

(GiB)

本地盘

虚拟化类型

pi1.2xlarge.4

8

32

5/1.6

40

2

1 × P4

1 × 8GiB

-

KVM

pi1.4xlarge.4

16

64

8/3.2

70

4

2 × P4

2 × 8GiB

-

KVM

pi1.8xlarge.4

32

128

10/6.5

140

8

4 × P4

4 × 8GiB

-

KVM

Pi1型弹性云服务器功能如下:
  • 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。
  • 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程
  • 支持NVIDIA Tesla P4 GPU卡,单实例最大支持4张P4 GPU卡。
  • 提供GPU硬件直通能力。
  • 单GPU单精度计算能力最高5.5 TFLOPS。
  • 单GPU INT8计算能力最高22 TOPS。
  • 单GPU提供8GiB ECC显存,带宽192GiB/s。
  • GPU内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理。

常规支持软件列表

Pi1实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。

常用的软件支持列表如下:

  • Tensorflow、Caffe、PyTorch、MXNet等深度学习框架

使用须知

  • Pi1型云服务器,在按需付费的模式下,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。具体请参见产品价格详情

    Pi1型云服务器,在按需付费的模式下,关机后会释放资源,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。

  • Pi1型弹性云服务器不支持规格变更。
  • Pi1型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
  • 使用公共镜像创建的Pi1型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的Pi1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包
  • GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
  • GPU型弹性云服务器不支持热迁移。

相关文档