更新时间:2023-09-08 GMT+08:00

GPU加速型

GPU加速型云服务器(GPU Accelerated Cloud Server,GACS)能够提供强大的浮点计算能力,从容应对高实时、高并发的海量计算场景。

GPU加速实例总览

表1 GPU加速实例总览

类别

实例

GPU显卡

单卡Cuda Core数量

单卡GPU性能

使用场景

备注

计算加速型

P3

NVIDIA A100

6912

  • 19.5TFLOPS 单精度浮点计算
  • 9.7TFLOPS 双精度浮点计算
  • 312TFLOPS Tensor Core 深度学习加速

AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。

-

计算加速型

P2s

NVIDIA V100

5120

  • 14TFLOPS 单精度浮点计算
  • 7TFLOPS 双精度浮点计算
  • 112TFLOPS Tensor Core 深度学习加速

AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。

-

计算加速型

P3snl

NVIDIA A100

6912

  • 19.5TFLOPS 单精度浮点计算
  • 9.7TFLOPS 双精度浮点计算
  • 312TFLOPS Tensor Core 深度学习加速

AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。

-

推理加速型

Pi2

NVIDIA T4(GPU直通)

2560

  • 8.1TFLOPS 单精度浮点计算
  • 130INT8 TOPS
  • 260INT4 TOPS

机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。

-

推理加速型

Pi2nl

NVIDIA P4(GPU直通)

2560

  • 8.1TFLOPS 单精度浮点计算
  • 130INT8 TOPS
  • 260INT4 TOPS

机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。

-

计算加速型P3

概述

P3型弹性云服务器采用NVIDIA A100 GPU,在提供云服务器灵活性的同时,提供超高性能计算能力。适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。理论单精度浮点性能:FP32:19.5TFLOPS。Tensor核心浮点性能:TF32: 156TFLOPS | 312TFLOPS(开启稀疏性)。

规格

表2 P3型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

网卡个数个数上限

GPU

显存

(GiB)

虚拟化类型

p3.2xlarge.8

8

64

10/4

100

4

4

1 × NVIDIA A100 80GB

80

KVM

p3.4xlarge.8

16

128

15/8

200

8

8

2 × NVIDIA A100 80GB

160

KVM

p3.8xlarge.8

32

256

25/15

350

16

8

4 × NVIDIA A100 80GB

320

KVM

p3.16xlarge.8

64

512

36/30

700

32

8

8 × NVIDIA A100 80GB

640

KVM

P3型弹性云服务器功能如下:

  • 处理器:第二代英特尔® 至强® 可扩展处理器6248R,主频3.0GHz。
  • 支持NVIDIA A100 GPU卡,每台云服务器支持最大8张A100显卡。
  • 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
  • 单卡单精度能力19.5 TFLOPS,双精度能力9.7 TFLOPS。
  • 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到156 TFLOPS。
  • 单实例最大网络带宽40Gb/s。
  • 单卡 80GB HBM2显存,显存带宽1935Gb/s。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P3型云服务器可以做到分钟级快速发放。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P3实例上。

常规软件支持列表

P3型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P3型云服务器。常用的软件支持列表如下:

  • Tensorflow、Spark、PyTorch、MXNet、Caffee等常用深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
  • Agisoft PhotoScan
  • MapD
  • Amber、NAMD、VASP等2000余支持GPU加速的应用

使用须知

  • P3型云服务器当前支持如下版本的操作系统:
    • Ubuntu 20.04 server 64bit
    • Ubuntu 18.04 server 64bit
    • CentOS 8.2 64bit
    • CentOS 8.1 64bit
    • CentOS 8.0 64bit
    • CentOS 7.9 64bit
    • CentOS 7.8 64bit
    • CentOS 7.7 64bit
    • CentOS 7.6 64bit
  • 使用私有镜像创建的P3型云服务器,请确认在制作私有镜像时已安装驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包

计算加速型P2s

概述

P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。

规格

表3 P2s型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力(万PPS)

网卡多队列数

网卡个数上限

GPU

GPU连接技术

显存(GiB)

虚拟化类型

p2s.2xlarge.8

8

64

10/4

50

4

4

1 × V100

PCIe Gen3

1 × 32GiB

KVM

p2s.4xlarge.8

16

128

15/8

100

8

8

2 × V100

PCIe Gen3

2 × 32GiB

KVM

p2s.8xlarge.8

32

256

25/15

200

16

8

4 × V100

PCIe Gen3

4 × 32GiB

KVM

p2s.16xlarge.8

64

512

30/30

400

32

8

8 × V100

PCIe Gen3

8 × 32GiB

KVM

P2s型弹性云服务器功能如下:
  • 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
  • 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
  • 单精度能力14 TFLOPS,双精度能力7 TFLOPS。
  • 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。
  • 单实例最大网络带宽30Gb/s。
  • 使用32GiB HBM2显存,显存带宽900Gb/s。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P2s型云服务器可以做到分钟级快速发放。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。

常规软件支持列表

P2s型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2s型云服务器。常用的软件支持列表如下:
  • Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
  • Agisoft PhotoScan
  • MapD
使用须知
  • P2s型云服务器当前支持如下版本的操作系统:
    • Windows Server 2016 Standard 64bit
  • 使用公共镜像创建的P2s型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包

计算加速型P3snl

概述

P3snl型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P3snl型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。

规格

表4 P3snl型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力(万PPS)

网卡多队列数

GPU

GPU连接技术

显存

(GiB)

虚拟化类型

p3snl.2xlarge.8

8

64

10/4

100

4

1 × V100

PCIe Gen3

1 × 40GiB

KVM

p3snl.4xlarge.8

16

128

15/8

200

8

2 × V100

PCIe Gen3

2 × 40GiB

KVM

p3snl.8xlarge.8

32

256

25/15

350

16

4 × V100

PCIe Gen3

4 × 40GiB

KVM

p3snl.16xlarge.8

64

512

30/30

700

32

8 × V100

PCIe Gen3

8 × 40GiB

KVM

P3snl型弹性云服务器功能如下:
  • 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
  • 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
  • 单精度能力14 TFLOPS,双精度能力7 TFLOPS。
  • 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。
  • 单实例最大网络带宽30Gb/s。
  • 使用40GiB HBM2显存,显存带宽900Gb/s。
  • 完整的基础能力:
    • 网络自定义,自由划分子网、设置网络访问策略。
    • 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
    • 弹性伸缩,快速增加或减少云服务器数量。
  • 灵活选择:

    与普通云服务器一样,P2s型云服务器可以做到分钟级快速发放。

  • 优秀的超算生态:

    拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P3snl实例上。

常规软件支持列表

P3snl型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P3snl型云服务器。常用的软件支持列表如下:
  • Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
  • RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
  • Agisoft PhotoScan
  • MapD
使用须知
  • P3snl型云服务器当前支持如下版本的操作系统:
    • Windows Server 2016 Standard 64bit
    • Windows Server 2012 R2 Standard 64bit
    • Ubuntu Server 16.04 64bit
    • CentOS 7.7 64bit
    • CentOS 7.4 64bit
  • 使用公共镜像创建的P3snl型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的P3snl型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包

推理加速型Pi2

概述

Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。

规格

表5 Pi2型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

显存

(GiB)

本地盘

虚拟化类型

pi2.2xlarge.4

8

32

10/4

50

4

1 × T4

1 × 16

-

KVM

pi2.4xlarge.4

16

64

15/8

100

8

2 × T4

2 × 16

-

KVM

pi2.8xlarge.4

32

128

25/15

200

16

4 × T4

4 × 16

-

KVM

pi2.16xlarge.4

64

256

30/30

400

32

8 × T4

8 × 16

-

KVM

Pi2型弹性云服务器功能如下

  • 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
  • 提供GPU硬件直通能力。
  • 单GPU单精度计算能力最高8.1 TFLOPS。
  • 单GPU INT8计算能力最高130 TOPS。
  • 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
  • 内置1个NVENC和2个NVDEC。

常规支持软件列表

Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。

常用的软件支持列表如下:

  • Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。

使用须知

  • Pi2型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    Pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。

  • Pi2型弹性云服务器当前支持如下版本的操作系统:
    • Windows Server 2019 Standard 64bit
    • Windows Server 2016 Standard 64bit
    • CentOS 7.5 64bit
  • Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
  • 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包

推理加速型Pi2nl

概述

Pi2nl型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2nl型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2nl也可以支持轻量级训练场景。

规格
表6 Pi2nl型弹性云服务器的规格

规格名称

vCPU

内存

(GiB)

最大带宽/基准带宽

(Gbps)

最大收发包能力

(万PPS)

网卡多队列数

GPU

显存

(GiB)

本地盘

虚拟化类型

pi2nl.2xlarge.4

8

32

10/4

50

4

1 × T4

1 × 16

-

KVM

pi2nl.4xlarge.4

16

64

15/8

100

8

2 × T4

2 × 16

-

KVM

pi2nl.8xlarge.4

32

128

25/15

200

16

4 × T4

4 × 16

-

KVM

pi2nl.16xlarge.4

64

256

30/30

400

32

8 × T4

8 × 16

-

KVM

Pi2nl型弹性云服务器功能如下

  • 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
  • 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
  • 提供GPU硬件直通能力。
  • 单GPU单精度计算能力最高8.1 TFLOPS。
  • 单GPU INT8计算能力最高130 TOPS。
  • 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
  • 内置1个NVENC和2个NVDEC。

常规支持软件列表

Pi2nl实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。

常用的软件支持列表如下:

  • Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。

使用须知

  • Pi2nl型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。

    Pi2nl型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。

  • Pi2nl型弹性云服务器当前支持如下版本的操作系统:
    • Windows Server 2016 Standard 64bit
    • Ubuntu Server 16.04 64bit
    • CentOS 7.5 64bit
  • Pi2nl型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
  • 使用公共镜像创建的Pi2nl型云服务器,默认已安装Tesla驱动。
  • 使用私有镜像创建的Pi2nl型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考GPU加速型实例安装Tesla驱动及CUDA工具包