实例类型
x86 CPU架构和鲲鹏CPU架构
弹性云服务器实例主要包含两种架构,x86 CPU架构和鲲鹏CPU架构。
- x86 CPU架构
采用复杂指令集CISC(Complex Instruction Set Computer),CISC是一种计算机体系结构,其中每个指令可以执行一些较低阶的硬件操作,指令数目多而且复杂,每条指令的长度并不相同。由于指令执行较为复杂所以每条指令花费的时间较长。
- 鲲鹏CPU架构
采用精简指令集RISC(Reduced Instruction Set Computer),RISC是一种微处理器,旨在执行较少类型计算机指令,以便能够以更高的速度执行操作,使计算机的结构更加简单、合理地提高运行速度。
鲲鹏CPU架构相对于x86 CPU架构具有更加均衡的性能功耗比。
维度 |
x86 CPU架构 |
鲲鹏CPU架构 |
---|---|---|
优势 |
生态好,支持几乎所有常用软件。 |
自研芯片,性价比更高。 |
适用场景 |
Windows系列、仅x86兼容的商业软件等强平台相关场景。 |
|
规格命名规则
规格的Flavor命名如图1所示,通常包含代系名称、vCPU核数、内存/vCPU比值三部分。
部分Flavor命名还包含附加标识部分,例如,c6h.22xlarge.2.physical中的“physical”即为附加标识。
- 代系名称
如表2所示。
表3 主系列类型 应用场景
细分场景
主系列
说明
通用场景
通用入门型
t
Turbo
通用计算型
s
Standard
通用计算增强型
c
Compute
高性能计算场景
高性能计算型
h
High Performance
大数据场景
磁盘增强型
d
Disk
超高I/O型(大容量本地盘)
i
IOPS
超高I/O型(小容量本地盘)
ir
IOPS Raid
内存密集场景
内存优化型
m
Memory
超大内存型
e
Enhanced Memory
计算加速场景
GPU计算加速型
p
Parallel
GPU图像加速型
g
Graphic
GPU推理加速型
pi
Parallel Inference
FPGA加速型
fp
FPGA Performance
AI推理加速型
ai
Ascend Inference
- vCPU核数
通过small、medium、large、xlarge、Nxlarge表示,如表5所示。
- 内存/vCPU比值
例如,s6.2xlarge.4中的“4”表示内存和vCPU的比值为4,即vCPU核数为8,内存为32GiB。
- 附加标识
ECS和BMS的标准共池裸金属实例,以“physical” 作为附加标识。
例如,c6h.22xlarge.2.physical中的“physical”表示该规格为标准共池裸金属实例。
vCPU
弹性云服务器的处理器运用超线程HT(Hyper-Threading)技术,允许在CPU的每个物理内核上公开两个执行上下文,即一个物理内核包含两个虚拟的“逻辑内核”,可以处理不同的软件线程。vCPU(virtual CPU)即为虚拟的“逻辑内核”。
当前绝大多数规格已经默认开启了超线程,如果在创建弹性云服务器或者变更规格时关闭了超线程,则在弹性云服务器上查看到的CPU核数是规格的Flavor名称中展示的vCPU数量的一半。
例如,2核的物理CPU包含4个vCPU(线程)。
网络QoS
网络QoS,指利用各种基础技术,为指定的网络通信提供更好的服务能力。配置了QoS的网络环境,增加了网络性能的可预知性,并能够有效地分配网络带宽,更加合理地利用网络资源。
可以通过规格清单(x86)查询指定规格的QoS数据,包括最大带宽/基准带宽(Gbps)、内网最大收发包能力(万PPS)、网卡多队列数、网卡个数上限。
- 内网基准带宽:指弹性云服务器在整机网络带宽存在争抢时,能稳定达到的保证带宽。
- 内网最大带宽:指弹性云服务器在整机网络带宽没有争抢(宿主机上其他虚拟机对网络带宽要求不高)时,可以达到的最大带宽。
- 内网最大收发包能力:指弹性云服务器能达到的最大收发包能力。
单位为PPS(Packets per Second),即每秒收发多少个分组数据包,常用于衡量网络的性能。
- 网卡多队列数:将弹性云服务器中的网卡中断分散给不同的CPU处理,以满足网卡的需求,从而提升网络PPS和带宽性能。
- 网卡个数上限:指弹性云服务器最多能挂载多少个网卡。
- 辅助网卡个数上限:指弹性云服务器最多能挂载多少个辅助网卡。