通过动态存储卷使用专属存储
CCE支持指定存储类(StorageClass),自动创建专属存储类型的底层存储和对应的存储卷,适用于无可用的底层存储,需要新创建的场景。
前提条件
- 您已经创建好一个集群,集群版本满足v1.21.15-r0、v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上,并且在该集群中安装2.4.5及以上版本的CCE容器存储(Everest)。
- 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。
约束与限制
- 专属存储不支持跨可用区挂载,且不支持被多个工作负载、同一个工作负载的多个实例或多个任务使用。由于CCE集群各节点之间暂不支持共享盘的数据共享功能,多个节点挂载使用同一个磁盘可能会出现读写冲突、数据缓存冲突等问题,所以创建无状态工作负载时,若使用了专属存储,建议工作负载只选择一个实例。
- 如果使用HPA策略对挂载了专属存储的负载进行扩容,新Pod会因为无法挂载磁盘导致无法成功启动。
通过控制台自动创建专属存储
- 登录CCE控制台,单击集群名称进入集群。
- 动态创建存储卷声明和存储卷。
- 在左侧导航栏选择“存储”,在右侧选择“存储卷声明”页签。单击右上角“创建存储卷声明 PVC”,在弹出的窗口中填写存储卷声明参数。
参数
描述
存储卷声明类型
本文中选择“专属存储”。
PVC名称
输入PVC的名称,同一命名空间下的PVC名称需唯一。
创建方式
- 无可用底层存储的场景下,可选择“动态创建”,通过控制台级联创建存储卷声明PVC、存储卷PV和底层存储。
- 已有底层存储的场景下,根据是否已经创建PV可选择“新建存储卷”或“已有存储卷”,静态创建PVC,具体操作请参见通过静态存储卷使用专属存储。
本文中选择“动态创建”。
存储类
专属存储对应的存储类为csi-disk-dss。
存储卷名称前缀(可选)
集群版本为v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上时支持,且集群中需安装2.4.15及以上版本的Everest插件。
定义自动创建的底层存储名称,实际创建的底层存储名称为“存储卷名称前缀”与“PVC UID”的拼接组合,如果不填写该参数,默认前缀为“pvc”。
例如,存储卷名称前缀设置为“test”,则实际创建的底层存储名称test-{uid}。
专属实例
选择一个已有的专属存储实例。
容量(GiB)
申请的存储卷容量大小。
访问模式
专属存储类型的存储卷仅支持ReadWriteOnce,表示存储卷可以被一个节点以读写方式挂载。
加密
选择底层存储是否加密,使用加密时需要选择使用的加密密钥。
企业项目
仅支持default、集群所在企业项目或存储类指定的企业项目。
资源标签
通过为资源添加标签,可以对资源进行自定义标记,实现资源的分类。集群中everest版本为2.1.39及以上时支持。
您可以在TMS中创建“预定义标签”,预定义标签对所有支持标签功能的服务资源可见,通过使用预定义标签可以提升标签创建和迁移效率。
CCE服务会自动创建“CCE-Cluster-ID=<集群ID>”、“CCE-Cluster-Name=<集群名称>”、“CCE-Namespace=<命名空间名称>”的系统标签,您无法自定义修改。
说明:专属存储类型的动态存储卷创建完成后,不支持在CCE侧更新资源标签。如需更新专属存储的资源标签,请前往专属存储控制台。
- 单击“创建”。
您可以在左侧导航栏中选择“存储”,在“存储卷声明”和“存储卷”页签下查看已经创建的存储卷声明和存储卷。
- 在左侧导航栏选择“存储”,在右侧选择“存储卷声明”页签。单击右上角“创建存储卷声明 PVC”,在弹出的窗口中填写存储卷声明参数。
- 创建应用。
- 在左侧导航栏中选择“工作负载”,在右侧选择“有状态负载”页签。
- 单击页面右上角“创建工作负载”,在“容器配置”中选择“数据存储”页签,并单击“添加存储卷 > 已有存储卷声明 (PVC)”。
本文主要为您介绍存储卷的挂载使用,如表1,其他参数详情请参见工作负载。
表1 存储卷挂载 参数
参数说明
存储卷声明(PVC)
选择已有的专属存储卷。
专属存储卷无法被多个工作负载重复挂载。
挂载路径
请输入挂载路径,如:/tmp。
数据存储挂载到容器上的路径。请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。须知:挂载高危目录的情况下 ,建议使用低权限账号启动,否则可能会造成宿主机高危文件被破坏。
子路径
请输入存储卷的子路径,将存储卷中的某个路径挂载至容器,可以实现在单一Pod中使用同一个存储卷的不同文件夹。如:tmp,表示容器中挂载路径下的数据会存储在存储卷的tmp文件夹中。不填写时默认为根路径。
权限
- 只读:只能读容器路径中的数据卷。
- 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。
本例中将该盘挂载到容器中/data路径下,在该路径下生成的容器数据会存储到磁盘中。
由于专属存储为非共享模式,工作负载下多个实例无法同时挂载,会导致实例启动异常。因此挂载专属存储盘时,工作负载实例数需为1。
如果您需要使用多实例的工作负载,请选择创建有状态工作负载,并使用动态挂载能力为每个实例挂载一个PV,详情请参考在有状态负载中动态挂载专属存储。
- 其余信息都配置完成后,单击“创建工作负载”。
工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化中的步骤进行验证。
使用kubectl自动创建专属存储
- 使用kubectl连接集群。
- 使用StorageClass动态创建PVC及PV。
- 创建pvc-dss-auto.yaml文件。
apiVersion: v1 kind: PersistentVolumeClaim metadata: name: pvc-dss-auto namespace: default annotations: everest.io/disk-volume-type: SAS # 磁盘的类型 everest.io/csi.dedicated-storage-id: <dss_id> # DSS存储池的ID everest.io/crypt-key-id: <your_key_id> # 可选字段,加密密钥ID,使用加密盘的时候填写 everest.io/enterprise-project-id: <your_project_id> # 可选字段,企业项目ID,如果指定企业项目,则创建PVC时也需要指定相同的企业项目,否则PVC无法绑定PV。 everest.io/disk-volume-tags: '{"key1":"value1","key2":"value2"}' # 可选字段,用户自定义资源标签 everest.io/csi.volume-name-prefix: test # 可选字段,定义自动创建的底层存储名称前缀 labels: failure-domain.beta.kubernetes.io/region: <your_region> # 替换为您待部署应用的节点所在的区域 failure-domain.beta.kubernetes.io/zone: <your_zone> # 替换为您待部署应用的节点所在的可用区 spec: accessModes: - ReadWriteOnce # 专属存储必须为ReadWriteOnce resources: requests: storage: 10Gi # 磁盘大小,取值范围 1-32768 storageClassName: csi-disk-dss # StorageClass类型为专属存储
表2 关键参数说明 参数
是否必选
描述
failure-domain.beta.kubernetes.io/region
是
集群所在的region。
failure-domain.beta.kubernetes.io/zone
是
创建磁盘所在的可用区,必须和工作负载规划的可用区保持一致。
everest.io/disk-volume-type
是
磁盘类型,全大写。- SAS:高I/O
- SSD:超高I/O
everest.io/csi.dedicated-storage-id
是
专属盘所在DSS存储池的ID。
获取方法:在云服务器控制台,单击左侧栏目树中的“专属分布式存储 > 存储池”,单击要对接的存储池名称展开详情,复制ID值即可。
everest.io/crypt-key-id
否
当专属存储是加密卷时为必填,填写创建磁盘时选择的加密密钥ID。
获取方法:在数据加密控制台,找到需要加密的密钥,复制密钥ID值即可。
everest.io/enterprise-project-id
否
可选字段
专属存储的企业项目ID。如果指定企业项目,则创建PVC时也需要指定相同的企业项目,否则PVC无法绑定PV。
获取方法:在企业项目管理控制台,单击要对接的企业项目名称,复制企业项目ID值即可。
everest.io/disk-volume-tags
否
可选字段,集群中everest版本为2.1.39及以上时支持。
通过为资源添加标签,可以对资源进行自定义标记,实现资源的分类。
您可以在TMS中创建“预定义标签”,预定义标签对所有支持标签功能的服务资源可见,通过使用预定义标签可以提升标签创建和迁移效率。
CCE服务会自动创建“CCE-Cluster-ID=<集群ID>”、“CCE-Cluster-Name=<集群名称>”、“CCE-Namespace=<命名空间名称>”的系统标签,您无法自定义修改。
everest.io/csi.volume-name-prefix
否
可选字段,集群版本为v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上时支持,且集群中需安装2.4.15及以上版本的Everest插件。
定义自动创建的底层存储名称,实际创建的底层存储名称为“存储卷名称前缀”与“PVC UID”的拼接组合,如果不填写该参数,默认前缀为“pvc”。
取值范围:参数值长度为1~26,且必须是小写字母、数字、中划线,不能以中划线开头或结尾。
例如,存储卷名称前缀设置为“test”,则实际创建的底层存储名称test-{uid}。
storage
是
PVC申请容量,单位为Gi,取值范围为1-32768。
storageClassName
是
专属存储对应的存储类名称为csi-disk-dss。
- 执行以下命令,创建PVC。
kubectl apply -f pvc-dss-auto.yaml
- 创建pvc-dss-auto.yaml文件。
- 创建应用。
- 创建web-dss-auto.yaml文件,本示例中将磁盘挂载至/data路径。
apiVersion: apps/v1 kind: StatefulSet metadata: name: web-dss-auto namespace: default spec: replicas: 1 selector: matchLabels: app: web-dss-auto serviceName: web-dss-auto # Headless Service名称 template: metadata: labels: app: web-dss-auto spec: containers: - name: container-1 image: nginx:latest volumeMounts: - name: pvc-disk-dss #卷名称,需与volumes字段中的卷名称对应 mountPath: /data #存储卷挂载的位置 imagePullSecrets: - name: default-secret volumes: - name: pvc-disk-dss #卷名称,可自定义 persistentVolumeClaim: claimName: pvc-dss-auto #已创建的PVC名称 --- apiVersion: v1 kind: Service metadata: name: web-dss-auto # Headless Service名称 namespace: default labels: app: web-dss-auto spec: selector: app: web-dss-auto clusterIP: None ports: - name: web-dss-auto targetPort: 80 nodePort: 0 port: 80 protocol: TCP type: ClusterIP
- 执行以下命令,创建一个挂载专属存储的应用。
kubectl apply -f web-dss-auto.yaml
工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化中的步骤进行验证。
- 创建web-dss-auto.yaml文件,本示例中将磁盘挂载至/data路径。
验证数据持久化
- 查看部署的应用及磁盘文件。
- 执行以下命令,查看已创建的Pod。
kubectl get pod | grep web-dss-auto
预期输出如下:web-dss-auto-0 1/1 Running 0 38s
- 执行以下命令,查看磁盘是否挂载至/data路径。
kubectl exec web-dss-auto-0 -- df | grep data
预期输出如下:
/dev/sdc 10255636 36888 10202364 0% /data
- 执行以下命令,查看/data路径下的文件。
kubectl exec web-dss-auto-0 -- ls /data
预期输出如下:
lost+found
- 执行以下命令,查看已创建的Pod。
- 执行以下命令,在/data路径下创建static文件。
kubectl exec web-dss-auto-0 -- touch /data/static
- 执行以下命令,查看/data路径下的文件。
kubectl exec web-dss-auto-0 -- ls /data
预期输出如下:
lost+found static
- 执行以下命令,删除名称为web-dss-auto-0的Pod。
kubectl delete pod web-dss-auto-0
预期输出如下:
pod "web-dss-auto-0" deleted
- 删除后,StatefulSet控制器会自动重新创建一个同名副本。执行以下命令,验证/data路径下的文件是否更改。
kubectl exec web-dss-auto-0 -- ls /data
预期输出如下:
lost+found static
static文件仍然存在,则说明磁盘中的数据可持久化保存。
相关操作
操作 |
说明 |
操作步骤 |
---|---|---|
扩容存储卷 |
通过CCE控制台快速扩容已挂载的专属存储。 |
|
事件 |
查看PVC或PV的事件名称、事件类型、发生次数、Kubernetes事件、首次和最近发生的时间,便于定位问题。 |
|
查看YAML |
可对PVC或PV的YAML文件进行查看、复制和下载。 |
|