更新时间:2024-10-14 GMT+08:00

通过静态存储卷使用专属存储

CCE支持使用已有的专属存储创建存储卷(PersistentVolume)。创建成功后,通过创建相应的PersistentVolumeClaim绑定当前PersistentVolume使用。适用于已有底层存储的场景。

前提条件

  • 您已经创建好一个集群,集群版本满足v1.21.15-r0、v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上,并且在该集群中安装2.4.5及以上版本的CCE容器存储(Everest)
  • 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群
  • 您已经创建好一块专属盘,并且专属盘满足以下条件:
    • 已有的磁盘不可以是系统盘或共享盘。
    • 磁盘模式需选择SCSI(创建磁盘时默认为VBD模式)。
    • 磁盘的状态可用,且未被其他资源使用。
    • 若磁盘加密,所使用的密钥状态需可用。
    • 仅支持选择集群所属企业项目和default企业项目下的磁盘。

约束与限制

  • 专属存储不支持跨可用区挂载,且不支持被多个工作负载、同一个工作负载的多个实例或多个任务使用。由于CCE集群各节点之间暂不支持共享盘的数据共享功能,多个节点挂载使用同一个磁盘可能会出现读写冲突、数据缓存冲突等问题,所以创建无状态工作负载时,若使用了专属存储,建议工作负载只选择一个实例。
  • 如果使用HPA策略对挂载了专属存储的负载进行扩容,新Pod会因为无法挂载磁盘导致无法成功启动。

通过控制台使用已有专属存储

  1. 登录CCE控制台,单击集群名称进入集群。
  2. 静态创建存储卷声明和存储卷。

    1. 在左侧导航栏选择“存储”,在右侧选择“存储卷声明”页签。单击右上角“创建存储卷声明 PVC”,在弹出的窗口中填写存储卷声明参数。

      参数

      描述

      存储卷声明类型

      本文中选择“专属存储”。

      PVC名称

      输入PVC的名称,同一命名空间下的PVC名称需唯一。

      创建方式

      • 已有底层存储的场景下,根据是否已经创建存储卷可选择“新建存储卷 PV”“已有存储卷 PV”来静态创建PVC。
      • 无可用底层存储的场景下,可选择“动态创建”,具体操作请参见通过动态存储卷使用专属存储

      本文示例中选择“新建存储卷”,可通过控制台同时创建PV及PVC。

      关联存储卷a

      选择集群中已有的PV卷,需要提前创建PV,请参考相关操作中的“创建存储卷”操作。

      本文示例中无需选择。

      专属存储b

      单击“选择专属存储”,您可以在新页面中勾选满足要求的磁盘,并单击“确定”

      PV名称b

      输入PV名称,同一集群内的PV名称需唯一。

      访问模式b

      专属存储类型的存储卷仅支持ReadWriteOnce,表示存储卷可以被一个节点以读写方式挂载。

      回收策略b

      您可以选择Delete或Retain,用于指定删除PVC时底层存储的回收策略。

      a:创建方式选择“已有存储卷 PV”时可设置。

      b:创建方式选择“新建存储卷 PV”时可设置。

    2. 单击“创建”,将同时为您创建存储卷声明及存储卷。

      您可以在左侧导航栏中选择“存储”,在“存储卷声明”“存储卷”页签下查看已经创建的存储卷声明和存储卷。

  3. 创建应用。

    1. 在左侧导航栏中选择“工作负载”,在右侧选择“有状态负载”页签。
    2. 单击页面右上角“创建工作负载”,在“容器配置”中选择“数据存储”页签,并单击“添加存储卷 > 已有存储卷声明 (PVC)”。
      本文主要为您介绍存储卷的挂载使用,如表1,其他参数详情请参见工作负载
      表1 存储卷挂载

      参数

      参数说明

      存储卷声明(PVC)

      选择已有的专属存储卷。

      专属存储卷无法被多个工作负载重复挂载。

      挂载路径

      请输入挂载路径,如:/tmp。

      数据存储挂载到容器上的路径。请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。
      须知:

      挂载高危目录的情况下 ,建议使用低权限账号启动,否则可能会造成宿主机高危文件被破坏。

      子路径

      请输入存储卷的子路径,将存储卷中的某个路径挂载至容器,可以实现在单一Pod中使用同一个存储卷的不同文件夹。如:tmp,表示容器中挂载路径下的数据会存储在存储卷的tmp文件夹中。不填写时默认为根路径。

      权限

      • 只读:只能读容器路径中的数据卷。
      • 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。

      本例中将该盘挂载到容器中/data路径下,在该路径下生成的容器数据会存储到磁盘中。

      由于专属存储为非共享模式,工作负载下多个实例无法同时挂载,会导致实例启动异常。因此挂载专属存储盘时,工作负载实例数需为1。

      如果您需要使用多实例的工作负载,请选择创建有状态工作负载,并使用动态挂载能力为每个实例挂载一个PV,详情请参考在有状态负载中动态挂载专属存储

    3. 其余信息都配置完成后,单击“创建工作负载”

      工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化中的步骤进行验证。

通过kubectl命令行使用已有专属存储

  1. 使用kubectl连接集群。
  2. 创建PV。当您的集群中已存在创建完成的PV时,可跳过本步骤。

    1. 创建pv-dss.yaml文件。
      apiVersion: v1
      kind: PersistentVolume
      metadata:
        annotations:
          pv.kubernetes.io/provisioned-by: everest-csi-provisioner
          everest.io/reclaim-policy: retain-volume-only         # 可选字段,删除PV时可保留底层存储卷
        name: pv-dss    # PV的名称
        labels:
          failure-domain.beta.kubernetes.io/region: <your_region>   # 替换为您待部署应用的节点所在的区域
          failure-domain.beta.kubernetes.io/zone: <your_zone>       # 替换为您待部署应用的节点所在的可用区
      spec:
        accessModes:
          - ReadWriteOnce     # 访问模式,专属存储必须为ReadWriteOnce
        capacity:
          storage: 10Gi       # 磁盘的容量,单位为Gi,取值范围 1-32768
        csi:
          driver: disk.csi.everest.io     # 挂载依赖的存储驱动
          fsType: ext4    # 与磁盘原文件系统保持一致
          volumeAttributes:
            everest.io/disk-mode: SCSI           # 磁盘模式,仅支持SCSI
            everest.io/disk-volume-type: SAS     # 磁盘的类型
            everest.io/csi.dedicated-storage-id: <dss_id>     # DSS存储池的ID
            storage.kubernetes.io/csiProvisionerIdentity: everest-csi-provisioner
            everest.io/crypt-key-id: <your_key_id>    # 可选字段,加密密钥ID,使用加密盘的时候填写
            everest.io/enterprise-project-id: <your_project_id>  # 可选字段,企业项目ID,如果指定企业项目,则创建PVC时也需要指定相同的企业项目,否则PVC无法绑定PV。
        persistentVolumeReclaimPolicy: Delete    # 回收策略
        storageClassName: csi-disk-dss              # 专属存储的存储类名称
      表2 关键参数说明

      参数

      是否必选

      描述

      everest.io/reclaim-policy: retain-volume-only

      可选字段

      目前仅支持配置“retain-volume-only”

      everest插件版本需 >= 1.2.9且回收策略为Delete时生效。如果回收策略是Delete且当前值设置为“retain-volume-only”删除PVC回收逻辑为:删除PV,保留底层存储卷。

      failure-domain.beta.kubernetes.io/region

      集群所在的region。

      failure-domain.beta.kubernetes.io/zone

      创建专属存储所在的可用区,必须和工作负载规划的可用区保持一致。

      fsType

      设置文件系统类型,默认为ext4。

      everest.io/disk-volume-type

      磁盘类型,全大写。
      • SAS:高I/O
      • SSD:超高I/O

      everest.io/csi.dedicated-storage-id

      专属盘所在DSS存储池的ID。

      获取方法:在云服务器控制台,单击左侧栏目树中的“专属分布式存储 > 存储池”,单击要对接的存储池名称展开详情,复制ID值即可。

      everest.io/crypt-key-id

      当磁盘是加密卷时为必填,填写创建磁盘时选择的加密密钥ID。

      获取方法:在云服务器控制台,单击左侧栏目树中的“专属分布式存储 > 磁盘”,单击要对接的磁盘名称进入详情页,在“概览信息”页签下找到“配置信息”,复制密钥ID值即可。

      everest.io/enterprise-project-id

      可选字段

      专属分布式存储的企业项目ID。如果指定企业项目,则创建PVC时也需要指定相同的企业项目,否则PVC无法绑定PV。

      获取方法:在云服务器控制台,单击左侧栏目树中的“专属分布式存储 > 磁盘”,单击要对接的磁盘名称进入详情页,在“概览信息”页签下找到“管理信息”中的企业项目,单击并进入对应的企业项目控制台,复制对应的ID值即可获取专属分布式存储所属的企业项目的ID。

      persistentVolumeReclaimPolicy

      支持Delete、Retain回收策略。如果数据安全性要求较高,建议使用Retain以免误删数据。

      Delete:

      • Delete且不设置everest.io/reclaim-policy:删除PVC,PV资源与磁盘均被删除。
      • Delete且设置everest.io/reclaim-policy=retain-volume-only:删除PVC,PV资源被删除,磁盘资源会保留。

      Retain:删除PVC,PV资源与底层存储资源均不会被删除,需要手动删除回收。PVC删除后PV资源状态为“已释放(Released)”,不能直接再次被PVC绑定使用。

      storageClassName

      专属存储对应的存储类名称为csi-disk-dss。

    2. 执行以下命令,创建PV。
      kubectl apply -f pv-dss.yaml

  3. 创建PVC。

    1. 创建pvc-dss.yaml文件。
      apiVersion: v1
      kind: PersistentVolumeClaim
      metadata:
        name: pvc-dss
        namespace: default
        annotations:
          everest.io/disk-volume-type: SAS    # 磁盘的类型
          everest.io/csi.dedicated-storage-id: <dss_id>     # DSS存储池的ID
          everest.io/crypt-key-id: <your_key_id>    # 可选字段,加密密钥ID,使用加密盘的时候填写
          everest.io/enterprise-project-id: <your_project_id>  # 可选字段,企业项目ID,如果指定企业项目,则创建PVC时也需要指定相同的企业项目,否则PVC无法绑定PV。
        labels:
          failure-domain.beta.kubernetes.io/region: <your_region>   # 替换为您待部署应用的节点所在的区域
          failure-domain.beta.kubernetes.io/zone: <your_zone>       # 替换为您待部署应用的节点所在的可用区
      spec:
        accessModes:
        - ReadWriteOnce               # 专属存储必须为ReadWriteOnce
        resources:
          requests:
            storage: 10Gi             # 磁盘大小,取值范围 1-32768,必须和已有PV的storage大小保持一致。
        storageClassName: csi-disk-dss    # StorageClass类型为专属存储
        volumeName: pv-dss            # PV的名称
      表3 关键参数说明

      参数

      是否必选

      描述

      failure-domain.beta.kubernetes.io/region

      集群所在的region。

      failure-domain.beta.kubernetes.io/zone

      创建磁盘所在的可用区,必须和工作负载规划的可用区保持一致。

      everest.io/csi.dedicated-storage-id

      专属盘所在DSS存储池的ID。

      获取方法:在云服务器控制台,单击左侧栏目树中的“专属分布式存储 > 存储池”,单击要对接的存储池名称展开详情,复制ID值即可。

      storage

      PVC申请容量,单位为Gi。

      必须和已有PV的storage大小保持一致。

      volumeName

      PV的名称,必须与1中PV的名称一致。

      storageClassName

      存储类名称,必须与1中PV的存储类一致。

      专属存储对应的存储类名称为csi-disk-dss。

    2. 执行以下命令,创建PVC。
      kubectl apply -f pvc-dss.yaml

  4. 创建应用。

    1. 创建web-dss.yaml文件,本示例中将磁盘挂载至/data路径。
      apiVersion: apps/v1
      kind: StatefulSet
      metadata:
        name: web-dss
        namespace: default
      spec:
        replicas: 1
        selector:
          matchLabels:
            app: web-dss
        serviceName: web-dss   # Headless Service名称
        template:
          metadata:
            labels:
              app: web-dss
          spec:
            containers:
            - name: container-1
              image: nginx:latest
              volumeMounts:
              - name: pvc-disk-dss    #卷名称,需与volumes字段中的卷名称对应
                mountPath: /data  #存储卷挂载的位置
            imagePullSecrets:
              - name: default-secret
            volumes:
              - name: pvc-disk-dss    #卷名称,可自定义
                persistentVolumeClaim:
                  claimName: pvc-dss    #已创建的PVC名称
      ---
      apiVersion: v1
      kind: Service
      metadata:
        name: web-dss   # Headless Service名称
        namespace: default
        labels:
          app: web-dss
      spec:
        selector:
          app: web-dss
        clusterIP: None
        ports:
          - name: web-dss
            targetPort: 80
            nodePort: 0
            port: 80
            protocol: TCP
        type: ClusterIP
    2. 执行以下命令,创建一个挂载专属存储的应用。
      kubectl apply -f web-dss.yaml

      工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化中的步骤进行验证。

验证数据持久化

  1. 查看部署的应用及磁盘文件。

    1. 执行以下命令,查看已创建的Pod。
      kubectl get pod | grep web-dss
      预期输出如下:
      web-dss-0                  1/1     Running   0               38s
    2. 执行以下命令,查看磁盘是否挂载至/data路径。
      kubectl exec web-dss-0 -- df | grep data

      预期输出如下:

      /dev/sdc              10255636     36888  10202364   0% /data
    3. 执行以下命令,查看/data路径下的文件。
      kubectl exec web-dss-0 -- ls /data

      预期输出如下:

      lost+found

  2. 执行以下命令,在/data路径下创建static文件。

    kubectl exec web-dss-0 --  touch /data/static

  3. 执行以下命令,查看/data路径下的文件。

    kubectl exec web-dss-0 -- ls /data

    预期输出如下:

    lost+found
    static

  4. 执行以下命令,删除名称为web-dss-0的Pod。

    kubectl delete pod web-dss-0

    预期输出如下:

    pod "web-dss-0" deleted

  5. 删除后,StatefulSet控制器会自动重新创建一个同名副本。执行以下命令,验证/data路径下的文件是否更改。

    kubectl exec web-dss-0 -- ls /data

    预期输出如下:

    lost+found
    static

    static文件仍然存在,则说明磁盘中的数据可持久化保存。

相关操作

您还可以执行表4中的操作。
表4 其他操作

操作

说明

操作步骤

创建存储卷

通过CCE控制台单独创建PV。

  1. 在左侧导航栏选择“存储”,在右侧选择“存储卷”页签。单击右上角“创建存储卷 PV”,在弹出的窗口中填写存储卷声明参数。
    • 存储卷类型:选择“专属存储”
    • 专属存储:单击“选择专属存储”,在新页面中勾选满足要求的磁盘,并单击“确定”
    • PV名称:输入PV名称,同一集群内的PV名称需唯一。
    • 访问模式:仅支持ReadWriteOnce,表示存储卷可以被一个节点以读写方式挂载。
    • 回收策略:Delete或Retain。
  2. 单击“创建”

扩容专属存储卷

通过CCE控制台快速扩容已挂载的专属存储。

  1. 在左侧导航栏选择“存储”,在右侧选择“存储卷声明”页签。单击PVC操作列的“更多 > 扩容”。
  2. 输入新增容量,并单击“确定”。

事件

查看PVC或PV的事件名称、事件类型、发生次数、Kubernetes事件、首次和最近发生的时间,便于定位问题。

  1. 在左侧导航栏选择“存储”,在右侧选择“存储卷声明”“存储卷”页签。
  2. 单击目标实例操作列的“事件”,即可查看1小时内的事件(事件保存时间为1小时)。

查看YAML

可对PVC或PV的YAML文件进行查看、复制和下载。

  1. 在左侧导航栏选择“存储”,在右侧选择“存储卷声明”“存储卷”页签。
  2. 单击目标实例操作列的“查看YAML”,即可查看或下载YAML。