GPU加速型
GPU加速型云服务器(GPU Accelerated Cloud Server,GACS)能够提供强大的浮点计算能力,从容应对高实时、高并发的海量计算场景。
该类型弹性云服务器默认开启超线程,每个vCPU对应一个底层超线程HT(Hyper-Threading)。
GPU加速实例总览
在售:除主售外的其他GPU机型均为在售机型,如果在售机型售罄,推荐使用主售机型
- 图像加速G系列
- 计算加速P系列
类别 |
实例 |
GPU显卡 |
单卡Cuda Core数量 |
单卡GPU性能 |
使用场景 |
备注 |
---|---|---|---|---|---|---|
图形加速型 |
G6v |
NVIDIA T4(vGPU虚拟化) |
2560 |
|
云桌面、图像渲染、3D可视化、重载图形设计。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
图形加速型 |
G6 |
NVIDIA T4(GPU直通) |
2560 |
|
云桌面、图像渲染、3D可视化、重载图形设计。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
图形加速型 |
G5 |
NVIDIA V100 |
5120 |
|
云桌面、图像渲染、3D可视化、重载图形设计。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
图形加速型 |
G3 |
NVIDIA M60(GPU直通) |
2048 |
4.8TFLOPS单精度浮点计算 |
云桌面、图像渲染、3D可视化、重载图形设计。 |
- |
图形加速型 |
G1 |
NVIDIA M60(GPU虚拟化) |
2048 |
4.8TFLOPS单精度浮点计算 |
云桌面、图像渲染、3D可视化、重载图形设计。 |
- |
计算加速型 |
P2vs |
NVIDIA V100 NVLink (GPU直通) |
5120 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
计算加速型 |
P2s |
NVIDIA V100 |
5120 |
|
AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
计算加速型 |
P2v |
NVIDIA V100 NVLink(GPU直通) |
5120 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
推理加速型 |
Pi2 |
NVIDIA T4(GPU直通) |
2560 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
推理加速型 |
Pi1 |
NVIDIA P4(GPU直通) |
2560 |
5.5TFLOPS 单精度浮点计算 |
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程 |
GPU加速型实例支持的镜像
类别 |
实例 |
支持的镜像 |
---|---|---|
图形加速型 |
G6v |
|
图形加速型 |
G6 |
|
图形加速型 |
G5 |
|
图形加速型 |
G3 |
|
图形加速型 |
G1 |
|
计算加速型 |
P2vs |
|
计算加速型 |
P2s |
|
计算加速型 |
P2v |
|
推理加速型 |
Pi2 |
|
推理加速型 |
Pi1 |
|
图形加速增强型G6v
概述
G6v型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,单卡提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。支持GPU虚拟化功能,支持1/2 T4、1/4 T4卡和1/8 T4卡。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|
g6v.2xlarge.2 |
8 |
16 |
6/2 |
35 |
4 |
1/8 × T4 |
2 |
KVM |
g6v.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
1/4 × T4 |
4 |
KVM |
g6v.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
1/2 × T4 |
8 |
KVM |
G6v型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。
- 支持图形加速接口:
- DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
- OpenGL 4.5
- Vulkan 1.0
- 支持CUDA和OpenCL。
- 支持NVIDIA T4 GPU卡,显存为16 GB。
- 支持图形加速应用。
- 支持CPU重载推理应用。
- 自动化的调度G6v型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
G6v型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、云游戏、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6v型云服务器。常用的图形处理软件支持列表如下:
- AutoCAD
- 3DS MAX
- MAYA
- Agisoft PhotoScan
- ContextCapture
使用须知
- G6v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G6v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的G6v型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
配置GRID License步骤请参考GPU加速型实例安装GRID驱动。
- 使用私有镜像创建的G6v型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
详细安装操作请参考GPU加速型实例安装GRID驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G6
概述
G6型弹性云服务器使用NVIDIA Tesla T4 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存,理论性能Pixel Rate:101.8GPixel/s,Texture Rate:254.4GTexel/s,满足专业级的图形处理需求。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g6.xlarge.4 |
4 |
16 |
6/2 |
200 |
8 |
8 |
1 × T4 |
16 |
KVM |
g6.4xlarge.4 |
16 |
64 |
15/8 |
200 |
8 |
8 |
1 × T4 |
16 |
KVM |
g6.6xlarge.4 |
24 |
96 |
25/15 |
200 |
8 |
8 |
1 × T4 |
16 |
KVM |
g6.9xlarge.7 |
36 |
252 |
25/15 |
200 |
16 |
8 |
1 × T4 |
16 |
KVM |
g6.10xlarge.7 |
40 |
280 |
25/15 |
200 |
16 |
8 |
1 × T4 |
16 |
KVM |
g6.18xlarge.7 |
72 |
504 |
30/30 |
400 |
32 |
16 |
2 × T4 |
32 |
KVM |
g6.20xlarge.7 |
80 |
560 |
30/30 |
400 |
32 |
16 |
2 × T4 |
32 |
KVM |
G6型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0GHz,睿频3.4GHz。
- 支持图形加速接口:
- DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
- OpenGL 4.5
- Vulkan 1.0
- 支持CUDA和OpenCL。
- 支持NVIDIA T4 GPU卡。
- 支持图形加速应用。
- 支持CPU重载推理应用。
- 自动化的调度G6型弹性云服务器到装有NVIDIA T4 GPU卡的可用区。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
G6型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3D可视化。应用软件如果依赖GPU的DirectX、OpenGL硬件加速能力可以使用G6型云服务器。常用的图形处理软件支持列表如下:
- AutoCAD
- 3DS MAX
- MAYA
- Agisoft PhotoScan
- ContextCapture
使用须知
- G6型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G6型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的G6型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
配置GRID License步骤请参考GPU加速型实例安装GRID驱动。
- 使用私有镜像创建的G6型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
详细安装操作请参考GPU加速型实例安装GRID驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G5
概述
G5型弹性云服务器使用NVIDIA Tesla V100 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供16GiB显存规格,支持最大4096 × 2160分辨率,满足专业级的图形处理需求。
请选择您所需要的类型和规格。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|
g5.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
V100-8Q |
8 |
KVM |
g5.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
1 × V100 |
16 |
KVM |
g5.8xlarge.4弹性云服务器独享一张V100显卡,支持专业图形加速,同样适用于CPU重载推理场景。
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持图形加速接口:
- DirectX 12、Direct2D、DirectX Video Acceleration (DXVA)
- OpenGL 4.5
- Vulkan 1.0
- 支持CUDA和OpenCL。
- 支持NVIDIA V100 GPU卡。
- 支持图形加速应用。
- 支持CPU重载推理应用。
- 自动化的调度G5型弹性云服务器到装有NVIDIA V100 GPU卡的可用区。
- 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。
常规支持软件列表
- AutoCAD
- 3DS MAX
- MAYA
- Agisoft PhotoScan
- ContextCapture
- 瞰景科技Smart3D实景三维建模软件
使用须知
- G5型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G5型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- G5型弹性云服务器,需在弹性云服务器创建完成后配置GRID License使用。
- 使用公共镜像创建的G5型弹性云服务器默认已安装特定版本的GRID驱动,但GRID License需自行购买和配置使用,请提前确认云GRID驱动版本是否符合需求,并配置GRID License。
配置GRID License步骤请参考GPU加速型实例安装GRID驱动。
- 使用私有镜像创建的G5型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。
详细安装操作请参考GPU加速型实例安装GRID驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速增强型G3
概述
G3型弹性云服务器基于PCI直通技术,独享整张GPU卡,提供专业级的图形加速能力。同时,G3型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL接口,可以提供最大显存16GiB,支持最大4096 × 2160分辨率,是专业级图形工作站的首选。
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|
g3.4xlarge.4 |
16 |
64 |
8/2.5 |
50 |
2 |
1 × M60核心 |
1×8 |
KVM |
g3.8xlarge.4 |
32 |
128 |
10/5 |
100 |
4 |
2 × M60核心 |
2×8 |
KVM |
NVIDIA Tesla M60板卡包含两颗M60 GPU,每颗M60 GPU包含2048 CUDA 核心和8GiB显存。G系列云服务器所指的M60一般指的是M60 GPU, 而不是M60板卡。
- 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。
- 支持专业级图形加速接口。
- 支持NVIDIA M60 GPU卡。
- 支持图形加速应用。
- 提供GPU直通的能力。
- 自动化的调度G3型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。
- 可以提供最大显存16GiB,分辨率为4096×2160的图形图像处理能力。
使用须知
- G3型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G3型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- G3型Windows操作系统云服务器启动时默认加载了GRID驱动,使用vGPU显卡作为默认视频输出,暂不支持使用管理控制台提供的“远程登录”功能。请使用RDP协议(如Windows远程桌面MSTSC)访问G3型实例,之后安装远程访问工具,如VNC工具等第三方VDI工具。
- 使用公共镜像创建的G3型弹性云服务器默认已安装特定版本的GRID驱动。
- 使用私有镜像创建的G3型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
图形加速型G1
概述
G1型弹性云服务器基于NVIDIA GRID虚拟GPU技术,提供较为经济的图形加速能力。同时,G1型弹性云服务器使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL,可以提供最大显存8GiB、分辨率为4096×2160的图形图像处理能力,适用于图形渲染要求较高的应用。
规格
类型 |
vCPU |
内存 (GiB) |
规格名称 |
虚拟化类型 |
GPU |
显存 (GiB) |
---|---|---|---|---|---|---|
图形加速基础型(G1) |
4 |
8 |
g1.xlarge |
XEN |
1 × M60-1Q |
1 |
8 |
16 |
g1.2xlarge |
XEN |
1 × M60-2Q |
2 |
|
16 |
32 |
g1.4xlarge |
XEN |
1 × M60-4Q |
4 |
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 |
最大收发包能力 |
GPU |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|
g1.xlarge |
4 |
8 |
中 |
中 |
1 × M60-1Q |
1 |
XEN |
g1.xlarge.4 |
4 |
16 |
中 |
中 |
1 × M60-1Q |
1 |
XEN |
g1.2xlarge |
8 |
16 |
中 |
中 |
1 × M60-2Q |
2 |
XEN |
g1.2xlarge.8 |
8 |
64 |
中 |
中 |
直通 |
8 |
XEN |
g1.4xlarge |
16 |
32 |
中 |
中 |
1 × M60-4Q |
4 |
XEN |
M60-xQ使用GPU虚拟化能力,x为1/2/4/8,表示云服务器使用GRID技术将M60 GPU虚拟为不同规格和型号的vGPU, x对应于vGPU的显存大小,Q表示该类型的vGPU主要适用于工作站和桌面场景。更多关于GRID虚拟GPU的介绍,请参见NVIDIA官方文档。
- 处理器:英特尔® 至强® 处理器 E5-2690 v4,主频2.6GHz,睿频3.5GHz。
- 支持NVIDIA M60 GPU卡。
- 支持图形加速应用。
- 提供GPU硬件虚拟化(vGPU)和GPU直通能力。
- 自动化的调度G1型弹性云服务器到装有NVIDIA M60 GPU卡的可用区。
- 可以提供最大显存8GiB,分辨率为4096×2160的图形图像处理能力。
- G1型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
G1型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- G1型弹性云服务器不支持规格变更。
- 规格为g1.2xlarge.8的弹性云服务器,不支持使用云平台提供的“远程登录”功能。请先使用MSTSC方式登录,然后自行安装VNC工具进行登录。
对于非g1.2xlarge.8的G1型弹性云服务器,支持使用云平台提供的“远程登录”功能,具体操作请参见远程登录(VNC方式)。
- 使用公共镜像创建的G1型弹性云服务器默认已安装特定版本的GRID驱动。
- 使用私有镜像创建的G1型弹性云服务器,请确认在制作私有镜像时安装GRID驱动。如果未安装,请在创建完成后安装GRID驱动,以实现图形加速功能。详细安装操作请参考安装GRID驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
计算加速型P2vs
概述
P2vs型弹性云服务器采用NVIDIA Tesla V100 GPU (32G显存),在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2vs型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
GPU |
GPU连接技术 |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
p2vs.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
1 × V100 |
- |
1 × 32GiB |
KVM |
p2vs.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
2 × V100 |
NVLink |
2 × 32GiB |
KVM |
p2vs.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
4 × V100 |
NVLink |
4 × 32GiB |
KVM |
p2vs.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 × V100 |
NVLink |
8 × 32GiB |
KVM |
P2vs型弹性云服务器功能如下:
- 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
- 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
- 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。
- 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。
- 单实例最大网络带宽30Gb/s。
- 使用32GiB HBM2显存,显存带宽900Gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2vs实例上。
常规软件支持列表
P2vs型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2vs型云服务器。
- Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
- RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
- Agisoft PhotoScan
- MapD
使用须知
- P2vs型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
P2vs型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的P2vs型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的P2vs型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
计算加速型P2s
概述
P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
GPU连接技术 |
显存(GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
p2s.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
4 |
1 × V100 |
PCIe Gen3 |
1 × 32GiB |
KVM |
p2s.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
8 |
2 × V100 |
PCIe Gen3 |
2 × 32GiB |
KVM |
p2s.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
8 |
4 × V100 |
PCIe Gen3 |
4 × 32GiB |
KVM |
p2s.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 |
8 × V100 |
PCIe Gen3 |
8 × 32GiB |
KVM |
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
- 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
- 单精度能力14 TFLOPS,双精度能力7 TFLOPS。
- 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。
- 单实例最大网络带宽30Gb/s。
- 使用32GiB HBM2显存,显存带宽900Gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。
常规软件支持列表
- Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
- RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
- Agisoft PhotoScan
- MapD
- P2s型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
P2s型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的P2s型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
计算加速型P2v
概述
P2v型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2v型弹性云服务器支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
GPU连接技术 |
显存 (GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
p2v.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
4 |
1 × V100 |
- |
1 × 16GiB |
KVM |
p2v.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
8 |
2 × V100 |
NVLink |
2 × 16GiB |
KVM |
p2v.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
8 |
4 × V100 |
NVLink |
4 × 16GiB |
KVM |
p2v.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 |
8 × V100 |
NVLink |
8 × 16GiB |
KVM |
- 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
- 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
- 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。
- 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。
- 单实例最大网络带宽30Gb/s。
- 使用16GiB HBM2显存,显存带宽900Gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。
常规软件支持列表
- Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
- RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
- Agisoft PhotoScan
- MapD
- P2v型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
P2v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的P2v型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的P2v型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
推理加速型Pi2
概述
Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
显存 (GiB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
pi2.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
4 |
1 × T4 |
1 × 16 |
- |
KVM |
pi2.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
8 |
2 × T4 |
2 × 16 |
- |
KVM |
pi2.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
8 |
4 × T4 |
4 × 16 |
- |
KVM |
Pi2型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
- 提供GPU硬件直通能力。
- 单GPU单精度计算能力最高8.1 TFLOPS。
- 单GPU INT8计算能力最高130 TOPS。
- 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
- Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。
使用须知
- Pi2型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
Pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。
推理加速型Pi1
概述
Pi1型弹性云服务器采用专为AI推理打造的NVIDIA Tesla P4 GPU,能够提供超强的实时推理能力。Pi1型弹性云服务器借助P4的INT8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
GPU |
显存 (GiB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
pi1.2xlarge.4 |
8 |
32 |
5/1.6 |
40 |
2 |
1 × P4 |
1 × 8GiB |
- |
KVM |
pi1.4xlarge.4 |
16 |
64 |
8/3.2 |
70 |
4 |
2 × P4 |
2 × 8GiB |
- |
KVM |
pi1.8xlarge.4 |
32 |
128 |
10/6.5 |
140 |
8 |
4 × P4 |
4 × 8GiB |
- |
KVM |
- 处理器:英特尔® 至强® 处理器 E5-2697 v4,主频2.3GHz,睿频3.5GHz。
- 支持NVIDIA Tesla P4 GPU卡,单实例最大支持4张P4 GPU卡。
- 提供GPU硬件直通能力。
- 单GPU单精度计算能力最高5.5 TFLOPS。
- 单GPU INT8计算能力最高22 TOPS。
- 单GPU提供8GiB ECC显存,带宽192GiB/s。
- GPU内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理。
常规支持软件列表
Pi1实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。
常用的软件支持列表如下:
- Tensorflow、Caffe、PyTorch、MXNet等深度学习框架
使用须知
- Pi1型云服务器,在按需付费的模式下,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
Pi1型云服务器,在按需付费的模式下,关机后会释放资源,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- Pi1型弹性云服务器不支持规格变更。
- Pi1型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的Pi1型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的Pi1型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装Tesla驱动及CUDA工具包。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- GPU型弹性云服务器不支持热迁移。