GPU加速型
GPU加速型云服务器(GPU Accelerated Cloud Server,GACS)能够提供强大的浮点计算能力,从容应对高实时、高并发的海量计算场景。
- G系列:图形加速型弹性云服务器,适合于3D动画渲染、CAD等。
- P系列:计算加速型或推理加速型弹性云服务器,适合于深度学习、科学计算、CAE等。
GPU加速实例总览
在售:除主售外的其他GPU机型均为在售机型,如果在售机型售罄,推荐使用主售机型
- 图像加速G系列
- 计算加速P系列
- 计算加速型P3v
- 计算加速型P2s(主售)
- 推理加速型Pi3
- 推理加速型Pi2(主售)
- 推理加速型Pi2nl
- 《弹性云服务器用户指南》的“GPU加速型实例安装GRID驱动”
- 《弹性云服务器用户指南》的“GPU加速型实例安装Tesla驱动及CUDA工具包”
GPU加速型实例支持的镜像
类别 |
实例 |
支持的镜像 |
---|---|---|
图形加速型 |
G7r |
云桌面提供 |
图形加速型 |
G7v |
|
图形加速型 |
G7 |
|
图形加速型 |
G6 |
|
图形加速型 |
G5r |
|
图形加速型 |
G5 |
|
计算加速型 |
P3v |
|
计算加速型 |
P2s |
|
推理加速型 |
Pi3 |
|
推理加速型 |
Pi2 |
|
推理加速型 |
Pi2nl |
|
图形加速增强型G7r
概述
G7r型弹性云服务器使用NVIDIA Quadro RTX A6000 GPU显卡,能够支持DirectX、Shader Model、OpenGL、Vulkan接口,整卡提供最大48GiB GDDR6显存,理论单精度性能FP32:38.7TFLOPS,Tensor性能(开启稀疏性):309.7TFLOPS。更多的Tensor核心带来的强大的性能满足专业级的图形处理需求。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g7r.3xlarge.4 |
12 |
48 |
17/5 |
200 |
4 |
6 |
1 × NVIDIA RTXA6000-6Q |
6 |
KVM |
g7r.4xlarge.4 |
16 |
64 |
20/6 |
280 |
8 |
8 |
1 × NVIDIA RTXA6000-8Q |
8 |
KVM |
g7r.6xlarge.4 |
24 |
96 |
25/9 |
400 |
8 |
8 |
1 × NVIDIA RTXA6000-12Q |
12 |
KVM |
g7r.8xlarge.4 |
32 |
128 |
30/12 |
550 |
16 |
8 |
1 × NVIDIA RTXA6000-16Q |
16 |
KVM |
g7r.12xlarge.4 |
48 |
192 |
35/18 |
750 |
16 |
8 |
1 × NVIDIA RTXA6000-24Q |
24 |
KVM |
g7r.24xlarge.4 |
96 |
384 |
40/36 |
1100 |
32 |
8 |
1 × NVIDIA RTXA6000 |
48 |
KVM |
G7r型弹性云服务器功能如下:
- 处理器:第三代英特尔® 至强® 可扩展处理器 8378A,主频3.0GHz,睿频3.5GHz。
- 支持图形加速接口:
- DirectX 12.0、Direct2D、DirectX Video Acceleration (DXVA)
- Shader Model 5.1
- OpenGL 4.6
- Vulkan 1.1
- 支持CUDA、DirectCompute和OpenCL。
- 单卡搭载10752个CUDA核心,84个二代RT核心以及576个三代Tensor核心。
- 支持图形加速应用。
- 支持CPU重载推理应用。
- 提供和弹性云服务器相同的申请流程。
- 自动化的调度G7r型弹性云服务器到装有NVIDIA Quadro RTX A6000 GPU卡的可用区。
- 内置1个NVENC和2个NVDEC编解码引擎(含AV1解码引擎)。
常规支持软件列表
G7r型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G7r型云服务器。常用的图形处理软件支持列表如下:
- AutoCAD
- 3ds Max
- MAYA
- Agisoft PhotoScan
- ContextCapture
使用须知
- G7r型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G7r型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- 使用公共镜像创建的G7r型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
- 使用私有镜像创建的G7r型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G7v
概述
G7v型弹性云服务器使用NVIDIA A40 GPU显卡,能够支持DirectX、Shader Model、OpenGL、Vulkan接口,提供单卡48GiB显存,理论浮点性能峰值FP32:37.4TFLOPS,理论Tensor性能峰值TF32:74.8TFLOPS | 149.6TFLOPS(开启稀疏性)。可提供理论2倍于RTX6000显卡的渲染性能和1.4倍于RTX6000的图形 处理性能,满足专业级的图形处理需求。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g7v.2xlarge.8 |
8 |
64 |
15/3 |
100 |
4 |
4 |
1 × NVIDIA-A40-8Q |
8 |
KVM |
g7v.4xlarge.8 |
16 |
128 |
20/6 |
150 |
8 |
8 |
1 × NVIDIA-A40-16Q |
16 |
KVM |
g7v.6xlarge.8 |
24 |
192 |
25/9 |
200 |
8 |
8 |
1 × NVIDIA-A40-24Q |
24 |
KVM |
G7v型弹性云服务器功能如下:
- 处理器:第三代英特尔® 至强® 可扩展处理器 8378A,主频3.0GHz,睿频3.5GHz。
- 支持图形加速接口:
- DirectX 12.07、Direct2D、DirectX Video Acceleration (DXVA)
- Shader Model 5.17
- OpenGL 4.68
- Vulkan 1.18
- 支持CUDA、DirectCompute、OpenACC和OpenCL。
- 单卡带有10752个CUDA核心,84个二代RT核心以及336个三代Tensor核心。
- 支持图形加速应用。
- 支持CPU重载推理应用。
- 提供和弹性云服务器相同的申请流程。
- 自动化的调度G7v型弹性云服务器到装有NVIDIA A40 GPU卡的可用区。
- 内置1个NVENC和2个NVDEC(含AV1解码)。
常规支持软件列表
G7v型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G7v型云服务器。常用的图形处理软件支持列表如下:
- AutoCAD
- 3ds Max
- MAYA
- Agisoft PhotoScan
- ContextCapture
- Adobe Premiere Pro
- Solidworks
- Unreal Engine
- Blender
- Vray
使用须知
- G7v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G7v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- 使用公共镜像创建的G7v型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
- 使用私有镜像创建的G7v型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G7
概述
G7型弹性云服务器使用NVIDIA A40 GPU显卡,能够支持DirectX、Shader Model、OpenGL、Vulkan接口,单卡提供48GiB显存,理论浮点性能峰值FP32:37.4TFLOPS,理论Tensor性能峰值TF32:74.8TFLOPS | 149.6TFLOPS(开启稀疏性)。可提供理论2倍于RTX6000显卡的渲染性能和1.4倍于RTX6000的图形处理性能,满足专业级的图形处理需求。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g7.12xlarge.8 |
48 |
384 |
35/18 |
750 |
16 |
8 |
1 × NVIDIA-A40 |
1 × 48 |
KVM |
g7.24xlarge.8 |
96 |
768 |
40/36 |
850 |
16 |
8 |
2 × NVIDIA-A40 |
2 × 48 |
KVM |
G7型弹性云服务器功能如下:
- 处理器:第三代英特尔® 至强® 可扩展处理器 8378A,主频3.0GHz,睿频3.5GHz。
- 支持图形加速接口:
- DirectX 12.07、Direct2D、DirectX Video Acceleration (DXVA)
- Shader Model 5.17
- OpenGL 4.68
- Vulkan 1.18
- 支持CUDA、DirectCompute、OpenACC和OpenCL。
- 单卡带有10752个CUDA核心,84个二代RT核心以及336个三代Tensor核心。
- 支持图形加速应用。
- 支持CPU重载推理应用。
- 提供和弹性云服务器相同的申请流程。
- 自动化的调度G7型弹性云服务器到装有NVIDIA A40 GPU卡的可用区。
- 内置1个NVENC和2个NVDEC(含AV1解码)。
常规支持软件列表
G7型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G7型云服务器。常用的图形处理软件支持列表如下:
- AutoCAD
- 3ds Max
- MAYA
- Agisoft PhotoScan
- ContextCapture
- Adobe Premiere Pro
- Solidworks
- Unreal Engine
- Blender
- Vray
使用须知
- G7型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G7型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- 使用公共镜像创建的G7型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
- 使用私有镜像创建的G7型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G6
概述
G6型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g6.xlarge.4 |
4 |
16 |
6/2 |
200 |
8 |
8 |
1 × T4 |
16 |
KVM |
g6.4xlarge.4 |
16 |
64 |
15/8 |
200 |
8 |
8 |
1 × T4 |
16 |
KVM |
g6.6xlarge.4 |
24 |
96 |
25/15 |
200 |
8 |
8 |
1 × T4 |
16 |
KVM |
g6.9xlarge.7 |
36 |
252 |
25/15 |
200 |
16 |
8 |
1 × T4 |
16 |
KVM |
g6.10xlarge.7 |
40 |
280 |
25/15 |
200 |
16 |
8 |
1 × T4 |
16 |
KVM |
g6.18xlarge.7 |
72 |
504 |
30/30 |
400 |
32 |
16 |
2 × T4 |
32 |
KVM |
g6.20xlarge.7 |
80 |
560 |
30/30 |
400 |
32 |
16 |
2 × T4 |
32 |
KVM |
G6型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。
- 支持图形加速接口:
- DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
- OpenGL 4.5
- Vulkan 1.0
- 支持CUDA和OpenCL。
- 支持NVIDIA T4 GPU卡。
- 支持图形加速应用。
- 支持CPU重载推理应用。
- 自动化的调度G6型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
G6型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6型云服务器。常用的图形处理软件支持列表如下:
- AutoCAD
- 3ds Max
- MAYA
- Agisoft PhotoScan
- ContextCapture
使用须知
- G6型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G6型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- 使用公共镜像创建的G6型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
配置GRID License步骤请参考《弹性云服务器用户指南》的“GPU加速型实例安装GRID驱动”。
- 使用私有镜像创建的G6型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
详细安装操作请参考《弹性云服务器用户指南》的“GPU加速型实例安装GRID驱动”。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G5r
概述
G5r型弹性云服务器基于PCI直通技术,独享整张GPU卡,提供专业级的图形加速能力。同时,G5r型弹性云服务器使用NVIDIA Quadro RTX5000 GPU卡,能够支持DirectX、OpenGL接口,可以提供最大显存16GiB,支持渲染,云游戏,图形工作站等场景。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g5r.8xlarge.2 |
32 |
64 |
10/4 |
100 |
4 |
8 |
1 × RTX5000 |
16 |
KVM |
NVIDIA Quadro RTX5000显卡采用新一代的图灵架构,且搭载Nvidia新一代RTX平台。
G5r型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持光栅化处理加速,含48个RT core。
- 支持NVIDIA RTX5000 GPU卡。
- 支持渲染类图形加速。
- 支持深度学习应用,含3072个CUDA core和384个Tensor core。
- 提供GPU直通的能力。
- 提供最大显存16GiB。
使用须知
- G5r型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G5r型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- G5r型弹性云服务器不支持规格变更。
- G5r型弹性云服务器处于公测阶段,请联系客服申请公测。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G5
概述
G5型弹性云服务器基于NVIDIA GRID虚拟化GPU技术,能够提供全面的专业级的图形加速能力。G5型弹性云服务器使用NVIDIA Tesla V100 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供1/2/4/8/16 GiB显存规格,支持最大4096 × 2160分辨率,满足从入门级到专业级的图形处理需求。
请选择您所需要的类型和规格。
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g5.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
8 |
1 × V100 |
16 |
KVM |
V100-xQ,表示云服务器使用GRID技术将V100 GPU虚拟为不同规格和型号的vGPU, x对应于vGPU的显存大小,Q表示该类型的vGPU主要适用于工作站和桌面场景。更多关于GRID虚拟GPU的介绍,请参见NVIDIA官方文档。
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持图形加速接口:
- DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
- OpenGL 4.5
- Vulkan 1.0
- 支持CUDA和OpenCL。
- 支持Quadro vDWS特性,为专业级图形应用提供加速。
- 支持NVIDIA V100 GPU卡。
- 支持图形加速应用。
- 提供GPU硬件虚拟化(vGPU)。
- 自动化的调度G5型弹性云服务器到装有NVIDIA V100 GPU卡的可用区。
- 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。
常规支持软件列表
- AutoCAD
- 3ds Max
- MAYA
- Agisoft PhotoScan
- ContextCapture
使用须知
- G5型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G5型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- G5型Windows操作系统云服务器启动时默认加载了GRID驱动,使用vGPU显卡作为默认视频输出,暂不支持使用管理控制台提供的“远程登录”功能。请使用RDP协议(如Windows远程桌面MSTSC)访问G5型实例,之后安装远程访问工具,如VNC工具等第三方VDI工具。
- G5型弹性云服务器,需在弹性云服务器创建完成后配置GRID License使用。
- 使用公共镜像创建的G5型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
配置GRID License步骤请参考《弹性云服务器用户指南》的“GPU加速型实例安装GRID驱动”。
- 使用私有镜像创建的G5型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
详细安装操作请参考《弹性云服务器用户指南》的“GPU加速型实例安装GRID驱动”。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
计算加速型P3v
概述
P3v型弹性云服务器采用NVIDIA A800 GPU,在提供云服务器灵活性的同时,提供超高性能计算能力。适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。理论单精度浮点性能:FP32:19.5TFLOPS。Tensor核心浮点性能:TF32: 156TFLOPS,BFLOAT16: 312TFLOPS。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
GPU连接技术 |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
p3v.3xlarge.8 |
12 |
96 |
17/5 |
200 |
4 |
4 |
1 × NVIDIA A800 80GB |
N/A |
80 |
KVM |
p3v.24xlarge.8 |
96 |
768 |
40/36 |
850 |
32 |
8 |
8 × NVIDIA A800 80GB |
NVLink |
640 |
KVM |
P3v型弹性云服务器功能如下:
- 处理器:第三代英特尔® 至强® 可扩展处理器 6348,主频2.6GHz,睿频3.5GHz。
- 支持NVIDIA A800 GPU卡,每台云服务器支持最大8张A800显卡。
- 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
- 单精度能力19.5 TFLOPS,双精度能力9.7 TFLOPS。
- 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到156 TFLOPS。
- 单实例最大网络带宽40Gb/s。
- 单卡 80GB HBM2显存,显存带宽2039Gb/s,支持多卡NVLINK互联技术。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P3v实例上。
常规软件支持列表
P3v型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P3v型云服务器。常用的软件支持列表如下:
- Tensorflow、Spark、PyTorch、MXNet、Caffe等常用深度学习框架
- RedShift for Autodesk 3ds Max、V-Ray for 3ds Max等支持CUDA的GPU渲染
- Agisoft PhotoScan
- MapD
- Amber、NAMD、VASP等2000余支持GPU加速的应用
使用须知
- P3v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
P3v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- 使用私有镜像创建的P3v型云服务器,请确认在制作私有镜像时已安装驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考《弹性云服务器用户指南》“GPU加速型实例安装Tesla驱动及CUDA工具包”。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
计算加速型P2s
概述
P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
GPU连接技术 |
显存(GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
p2s.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
4 |
1 × V100 |
PCIe Gen3 |
1 × 32GiB |
KVM |
p2s.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
8 |
2 × V100 |
PCIe Gen3 |
2 × 32GiB |
KVM |
p2s.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
8 |
4 × V100 |
PCIe Gen3 |
4 × 32GiB |
KVM |
p2s.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 |
8 × V100 |
PCIe Gen3 |
8 × 32GiB |
KVM |
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
- 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
- 单精度能力14 TFLOPS,双精度能力7 TFLOPS。
- 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。
- 单实例最大网络带宽30Gb/s。
- 使用32GiB HBM2显存,显存带宽900Gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。
常规软件支持列表
- Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
- RedShift for Autodesk 3ds Max、V-Ray for 3ds Max等支持CUDA的GPU渲染
- Agisoft PhotoScan
- MapD
- P2s型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
P2s型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考《弹性云服务器用户指南》“GPU加速型实例安装Tesla驱动及CUDA工具包”。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
推理加速型Pi3
概述
Pi3型弹性云服务器采用专为AI推理打造的NVIDIA A30 GPU,能够提供超强的实时推理能力。单卡24GB显存,933GB/s带宽使得Pi3也同时可以支持一定的训练场景。其理论AI训练吞吐量三倍于NVIDA V100显卡,六倍于前代Pi2型服务器的T4显卡。Pi3型弹性云服务器借助NVIDIA A30的运算器,能够提供最大330TOPS的INT8算力(开启稀疏性)。理论峰值单精度浮点性能:TF32:10.3TFLOPS,Tensor核心性能:TF32: 82TFLOPS | 165TFLOPS(开启稀疏性)。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数个数上限 |
GPU |
GPU连接技术 |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
pi3.6xlarge.4 |
24 |
96 |
25/9 |
400 |
8 |
8 |
1 × NVIDIA A30 |
24 |
- |
KVM |
pi3.12xlarge.4 |
48 |
192 |
35/18 |
750 |
8 |
8 |
2 × NVIDIA A30 |
48 |
- |
KVM |
Pi3型弹性云服务器功能如下:
- 处理器:第三代英特尔® 至强® 可扩展处理器 6348,主频2.6GHz,睿频3.5GHz。
- 支持NVIDIA A30 GPU卡NVLINK互联技术,单实例最大支持2张A30 GPU卡。
- 单GPU单精度计算能力最高10.3 TFLOPS。
- 单GPU INT8计算能力最高330 TOPS。
- 单GPU提供24GiB HBM2显存,带宽933GiB/s。
- 内置1个OFA和1个NVJPEG和4个NVDEC。
常规支持软件列表
Pi3实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持一定的训练场景。
常用的软件支持列表如下:
- Tensorflow、Caffe、PyTorch、MXNet、Spark等深度学习框架。
- AMBER、NAMD、OPENFOAM等2000+支持GPU加速的软件应用。
使用须知
- Pi3型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性IP、带宽等,按各自产品的计费方法进行收费。
Pi3型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- Pi3型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 创建Pi3型云服务器时,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考《弹性云服务器用户指南》“GPU加速型实例安装Tesla驱动及CUDA工具包”。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
推理加速型Pi2
概述
Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
pi2.xlarge.4 |
4 |
16 |
8/2 |
25 |
2 |
2 |
1 × T4 |
1 × 16 |
- |
KVM |
pi2.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
4 |
1 × T4 |
1 × 16 |
- |
KVM |
pi2.3xlarge.4 |
12 |
48 |
12/6 |
80 |
6 |
6 |
1 × T4 |
1 × 16 |
- |
KVM |
pi2.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
8 |
2 × T4 |
2 × 16 |
- |
KVM |
pi2.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
8 |
4 × T4 |
4 × 16 |
- |
KVM |
Pi2型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
- 提供GPU硬件直通能力。
- 单GPU单精度计算能力最高8.1 TFLOPS。
- 单GPU INT8计算能力最高130 TOPS。
- 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
- Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。
使用须知
- Pi2型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
Pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考《弹性云服务器用户指南》“GPU加速型实例安装Tesla驱动及CUDA工具包”。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
推理加速型Pi2nl
概述
Pi2nl型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2nl型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2nl也可以支持轻量级训练场景。
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
pi2nl.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
4 |
1 × T4 |
1 × 16 |
- |
KVM |
pi2nl.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
8 |
2 × T4 |
2 × 16 |
- |
KVM |
pi2nl.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
8 |
4 × T4 |
4 × 16 |
- |
KVM |
Pi2nl型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
- 提供GPU硬件直通能力。
- 单GPU单精度计算能力最高8.1 TFLOPS。
- 单GPU INT8计算能力最高130 TOPS。
- 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
Pi2nl实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
- Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。
使用须知
- Pi2nl型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
Pi2nl型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- Pi2nl型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的Pi2nl型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的Pi2nl型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考《弹性云服务器用户指南》“GPU加速型实例安装Tesla驱动及CUDA工具包”。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。