更新时间:2023-10-13 GMT+08:00
分享

约束与限制

本章介绍CCI相关的使用限制,以便于您更好地使用CCI。

CCI实例限制

下表为CCI实例相关的使用限制。

限制项

限制描述

创建CCI实例的用户帐号限制

已通过实名认证。

单个用户的资源数量和容量配额限制

云容器实例对单个用户的资源数量和容量限定了配额,您可以登录华为云控制台,在“资源 > 我的配额>服务配额”页面,查看各项资源的总配额及使用情况。

说明:

如果当前配额不能满足业务要求,可申请扩大配额。配额的详细信息请参见关于配额

单个CCI实例的vCPU数量

0.25核-32核,或者自定义选择48核、64核。

支持的容器操作系统类型

仅支持Linux容器。

CCI实例的网络类型

仅支持VPC网络。

Kubernetes应用限制

基于华为云的安全性带来的限制,CCI目前还不支持Kubernetes中HostPath、DaemonSet等功能,具体如下表所示。

不支持的功能

说明

推荐替代方案

HostPath

挂载本地宿主机文件到容器中

使用云盘或者SFS文件系统

HostNetwork

将宿主机端口映射到容器上

使用type=LoadBalancer的负载均衡

DaemonSet

DaemonSet(守护进程集)在集群的每个节点上运行一个Pod,且保证只有一个Pod

通过sidecar形式在Pod中部署多个容器

Privileged权限

容器拥有privileged权限

使用Security Context为Pod添加Capability

type=NodePort的Service

将宿主机端口映射到容器上

使用type=LoadBalancer的负载均衡

Pod规格限制

云容器实例当前支持使用GPU,您可以根据需要选择,实例收费详情请参见产品价格详情

当不使用GPU时,Pod规格需满足如下要求:

表1 Pod规格限制要求

Pod规格限制项

限制取值范围

Pod的CPU

  • 0.25核-32核,或者自定义选择48核、64核。
  • 单个容器的CPU必须为0.25核的整数倍。

Pod的内存

  • 1GiB-512GiB。
  • 内存必须为1GiB的整数倍。

Pod的CPU/内存配比值

在1:2至1:8之间。

Pod的容器

一个Pod内最多支持5个容器。

单个容器最小配置是0.25核、0.2GiB,最大同容器实例的最大配置。

Pod中所有容器和InitContainer(启动容器)

两者规格中的request和limit相等。

GPU加速型Pod提供3种显卡,具体的规格如下所示:
表2 GPU加速型Pod规格

显卡类型

具体规格

可用区域

NVIDIA Tesla T4显卡

  • NVIDIA Tesla T4 x 1,CPU 8核,内存32GiB
  • NVIDIA Tesla T4 x 2,CPU 16核,内存64GiB
  • NVIDIA Tesla T4 x 4,CPU 32核,内存128GiB
  • NVIDIA Tesla T4 x 8,CPU 64核,内存256GiB

华北-北京四

NVIDIA Tesla V100 16G显卡

  • NVIDIA Tesla V100 16G x 1,CPU 4核,内存32GiB
  • NVIDIA Tesla V100 16G x 2,CPU 8核,内存64GiB
  • NVIDIA Tesla V100 16G x 4,CPU 16核,内存128GiB
  • NVIDIA Tesla V100 16G x 8,CPU 32核,内存256GiB

华东-上海一

NVIDIA Tesla V100 32G显卡

  • NVIDIA Tesla V100 32G x 1,CPU 4核,内存32GiB
  • NVIDIA Tesla V100 32G x 2,CPU 8核,内存64GiB
  • NVIDIA Tesla V100 32G x 4,CPU 16核,内存128GiB
  • NVIDIA Tesla V100 32G x 8,CPU 32核,内存256GiB

华北-北京四

云容器实例支持使用NVIDIA GPU的驱动版本为460.106418.126,您应用程序中使用的CUDA需满足如表3所示的配套关系。CUDA与驱动的配套关系来源于NVIDIA官网,详细信息请参见CUDA Compatibility
表3 NVIDIA GPU驱动与CUDA配套关系

NVIDIA GPU驱动版本

CUDA Toolkit版本

460.106

CUDA 11.2.2 Update 2 及以下

418.126

CUDA 10.1 (10.1.105)及以下

GPU镜像

CUDA和cuDNN都是与GPU相关的技术,用于加速各种计算任务,特别是深度学习任务。在使用NVIDIA GPU进行深度学习时,通常需要安装CUDA和cuDNN。请使用配套关系的基础镜像。

Pod存储空间限制

如果没有挂载EVS等磁盘,应用数据存储在容器的rootfs,每个Pod存储空间限制如下所示:

表4 每个Pod存储空间限制

Pod类型

存储空间限制

CPU型Pod

20G

GPU型Pod

20G

分享:

    相关文档

    相关产品