GPU加速型
GPU加速型云服务器(GPU Accelerated Cloud Server,GACS)能够提供强大的浮点计算能力,从容应对高实时、高并发的海量计算场景。
GPU加速实例总览
- 计算加速P系列
类别 |
实例 |
GPU显卡 |
单卡Cuda Core数量 |
单卡GPU性能 |
使用场景 |
---|---|---|---|---|---|
计算加速型 |
P2s |
NVIDIA V100 |
5120 |
|
AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。 |
推理加速型 |
Pi2 |
NVIDIA T4(GPU直通) |
2560 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
推理加速型 |
Pi2nl |
NVIDIA P4(GPU直通) |
2560 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
GPU加速型实例支持的镜像
类别 |
实例 |
支持的镜像 |
---|---|---|
计算加速型 |
P2s |
|
推理加速型 |
Pi2 |
|
推理加速型 |
Pi2nl |
|
计算加速型P2s
概述
P2s型弹性云服务器采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2s型弹性云服务器能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
网卡个数上限 |
GPU |
GPU连接技术 |
显存(GiB) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
p2s.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
4 |
1 × V100 |
PCIe Gen3 |
1 × 32GiB |
KVM |
p2s.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
8 |
2 × V100 |
PCIe Gen3 |
2 × 32GiB |
KVM |
p2s.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
8 |
4 × V100 |
PCIe Gen3 |
4 × 32GiB |
KVM |
p2s.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 |
8 × V100 |
PCIe Gen3 |
8 × 32GiB |
KVM |
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla V100 GPU卡,每台云服务器支持最大8张Tesla V100显卡。
- 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。
- 单精度能力14 TFLOPS,双精度能力7 TFLOPS。
- 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。
- 单实例最大网络带宽30Gb/s。
- 使用32GiB HBM2显存,显存带宽900Gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。
常规软件支持列表
- Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架
- RedShift for Autodesk 3dsMax、V-Ray for 3ds Max等支持CUDA的GPU渲染
- Agisoft PhotoScan
- MapD
- P2s型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
P2s型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- 使用公共镜像创建的P2s型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的P2s型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考手动安装GPU加速型ECS的Tesla驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
推理加速型Pi2
概述
Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。
规格
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
GPU |
显存 (GiB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
pi2.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
1 × T4 |
1 × 16 |
- |
KVM |
pi2.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
2 × T4 |
2 × 16 |
- |
KVM |
pi2.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
4 × T4 |
4 × 16 |
- |
KVM |
pi2.16xlarge.4 |
64 |
256 |
30/30 |
400 |
32 |
8 × T4 |
8 × 16 |
- |
KVM |
Pi2型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
- 提供GPU硬件直通能力。
- 单GPU单精度计算能力最高8.1 TFLOPS。
- 单GPU INT8计算能力最高130 TOPS。
- 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
- Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。
使用须知
- Pi2型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
Pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- Pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的Pi2型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的Pi2型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考手动安装GPU加速型ECS的Tesla驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
推理加速型Pi2nl
概述
Pi2nl型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2nl型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2nl也可以支持轻量级训练场景。
规格名称 |
vCPU |
内存 (GiB) |
最大带宽/基准带宽 (Gbps) |
最大收发包能力 (万PPS) |
网卡多队列数 |
GPU |
显存 (GiB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
pi2nl.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
1 × T4 |
1 × 16 |
- |
KVM |
pi2nl.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
2 × T4 |
2 × 16 |
- |
KVM |
pi2nl.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
4 × T4 |
4 × 16 |
- |
KVM |
pi2nl.16xlarge.4 |
64 |
256 |
30/30 |
400 |
32 |
8 × T4 |
8 × 16 |
- |
KVM |
Pi2nl型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151,主频3.0GHz,睿频3.4GHz。
- 支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡。
- 提供GPU硬件直通能力。
- 单GPU单精度计算能力最高8.1 TFLOPS。
- 单GPU INT8计算能力最高130 TOPS。
- 单GPU提供16GiB GDDR6显存,带宽320GiB/s。
- 内置1个NVENC和2个NVDEC。
常规支持软件列表
Pi2nl实例主要用于GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
- Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。
使用须知
- Pi2nl型云服务器,关机后基础资源(包括vCPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。
Pi2nl型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态。
- Pi2nl型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的Pi2nl型云服务器,默认已安装Tesla驱动。
- 使用私有镜像创建的Pi2nl型云服务器,请确认在制作私有镜像时已安装Tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考手动安装GPU加速型ECS的Tesla驱动。
- GPU型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。