- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
- 用户指南
- 最佳实践
- 开发指南
-
API参考
- 使用前必读
- 如何调用API
- 快速入门
- API
-
Kubernetes API
- ConfigMap
- Pod
- StorageClass
- Service
- Deployment
- Ingress
- OpenAPIv2
- VolcanoJob
- Namespace
- ClusterRole
- Secret
- Endpoint
- ResourceQuota
- CronJob
-
API groups
- 查询APIVersions
- 查询所有v1版本的API
- 查询APIGroupList
- 查询APIGroup /apis/apps
- 查询所有apps/v1的API
- 查询APIGroup /apis/batch
- 查询APIGroup /apis/batch.volcano.sh
- 查询所有batch.volcano.sh/v1alpha1的API
- 查询所有batch/v1的API
- 查询所有batch/v1beta1的API
- 查询APIGroup /apis/crd.yangtse.cni
- 查询所有crd.yangtse.cni/v1的API
- 查询APIGroup /apis/extensions
- 查询所有extensions/v1beta1的API
- 查询APIGroup /apis/metrics.k8s.io
- 查询所有metrics.k8s.io/v1beta1的API
- 查询APIGroup /apis/networking.cci.io
- 查询所有networking.cci.io/v1beta1的API
- 查询APIGroup /apis/rbac.authorization.k8s.io
- 查询所有rbac.authorization.k8s.io/v1的API
- Event
- PersistentVolumeClaim
- RoleBinding
- StatefulSet
- Job
- ReplicaSet
- 数据结构
- 权限和授权项
- 附录
- 历史API
- 修订记录
- SDK参考
- 场景代码示例
- 常见问题
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
约束与限制
本章介绍CCI相关的使用限制,以便于您更好地使用CCI。
CCI实例限制
下表为CCI实例相关的使用限制。
限制项 |
限制描述 |
---|---|
创建CCI实例的用户账号限制 |
已通过实名认证。 |
单个用户的资源数量和容量配额限制 |
云容器实例对单个用户的资源数量和容量限定了配额,您可以登录华为云控制台,在“资源 > 我的配额>服务配额”页面,查看各项资源的总配额及使用情况。 |
单个CCI实例的vCPU数量 |
0.25核-32核,或者自定义选择48核、64核。 |
支持的容器操作系统类型 |
仅支持Linux容器。 |
CCI实例的网络类型 |
仅支持VPC网络。 |
Kubernetes应用限制
不支持的功能 |
说明 |
推荐替代方案 |
---|---|---|
HostPath |
挂载本地宿主机文件到容器中 |
使用云盘或者SFS文件系统 |
HostNetwork |
将宿主机端口映射到容器上 |
使用type=LoadBalancer的负载均衡 |
DaemonSet |
DaemonSet(守护进程集)在集群的每个节点上运行一个Pod,且保证只有一个Pod |
通过sidecar形式在Pod中部署多个容器 |
Privileged权限 |
容器拥有privileged权限 |
使用Security Context为Pod添加Capability |
type=NodePort的Service |
将宿主机端口映射到容器上 |
使用type=LoadBalancer的负载均衡 |
Pod规格限制
云容器实例当前支持使用GPU,您可以根据需要选择,实例收费详情请参见产品价格详情。
当不使用GPU时,Pod规格需满足如下要求:
Pod规格限制项 |
限制取值范围 |
---|---|
Pod的CPU |
|
Pod的内存 |
|
Pod的CPU/内存配比值 |
在1:2至1:8之间。 |
Pod的容器 |
一个Pod内最多支持5个容器。 |
Pod中所有容器和InitContainer(启动容器) |
两者规格中的request和limit相等。 |
- Pod规格计算详情请参见Pod规格计算方式。
- InitContainer是一种特殊容器,在 Pod 内的应用容器启动之前运行。有关InitContainer更多解释请参见对容器进行初始化操作。
显卡类型 |
具体规格 |
可用区域 |
---|---|---|
NVIDIA Tesla T4显卡 |
|
华北-北京四 |
NVIDIA Tesla V100 16G显卡 |
|
华东-上海一 |
NVIDIA Tesla V100 32G显卡 |
|
华北-北京四 |
GPU镜像
CUDA和cuDNN都是与GPU相关的技术,用于加速各种计算任务,特别是深度学习任务。在使用NVIDIA GPU进行深度学习时,通常需要安装CUDA和cuDNN。请使用配套关系的基础镜像。
Pod存储空间限制
如果没有挂载EVS等磁盘,应用数据存储在容器的rootfs,每个Pod存储空间限制如下所示:
Pod类型 |
存储空间限制 |
---|---|
CPU型Pod |
20G |
GPU型Pod |
20G |