更新时间:2024-01-26 GMT+08:00

通过静态存储卷使用已有文件存储

文件存储(SFS)是一种可共享访问,并提供按需扩展的高性能文件系统(NAS),适用大容量扩展以及成本敏感型的业务场景。本文介绍如何使用已有的文件存储静态创建PV和PVC,并在工作负载中实现数据持久化与共享性。

前提条件

  • 您已经创建好一个集群,并且在该集群中安装CSI插件(everest)。
  • 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群
  • 您已经创建好一个文件存储,并且文件存储与集群在同一个VPC内。

约束与限制

  • 支持多个PV挂载同一个SFS或SFS Turbo,但有如下限制:
    • 多个不同的PVC/PV使用同一个底层SFS或SFS Turbo卷时,如果挂载至同一Pod使用,会因为PV的volumeHandle参数值相同导致无法为Pod挂载所有PVC,出现Pod无法启动的问题,请避免该使用场景。
    • PV中persistentVolumeReclaimPolicy参数需设置为Retain,否则可能存在一个PV删除时,级联删除底层卷,其他关联这个底层卷的PV会由于底层存储被删除导致使用出现异常。
    • 重复用底层存储时,建议在应用层做好多读多写的隔离保护,防止产生的数据覆盖和丢失。

通过kubectl命令行使用已有文件存储

  1. 使用kubectl连接集群。
  2. 创建PV。

    1. 创建pv-sfs.yaml文件。
      SFS容量型:
      apiVersion: v1
      kind: PersistentVolume
      metadata:
        annotations:
          pv.kubernetes.io/provisioned-by: everest-csi-provisioner
          everest.io/reclaim-policy: retain-volume-only      # 可选字段,删除PV,保留底层存储卷
        name: pv-sfs    # PV的名称
      spec:
        accessModes:
        - ReadWriteMany      # 访问模式,文件存储必须为ReadWriteMany
        capacity:
          storage: 1Gi       # 文件存储容量大小
        csi:
          driver: nas.csi.everest.io    # 挂载依赖的存储驱动
          fsType: nfs
          volumeHandle: <your_volume_id>   # SFS容量型文件存储的ID
          volumeAttributes:
            everest.io/share-export-location: <your_location>  #文件存储的共享路径
            storage.kubernetes.io/csiProvisionerIdentity: everest-csi-provisioner
        persistentVolumeReclaimPolicy: Retain    # 回收策略
        storageClassName: csi-nas               # 存储类名称:csi-nas表示使用SFS容量型
        mountOptions: []                         # 挂载参数
      表1 关键参数说明

      参数

      是否必选

      描述

      everest.io/reclaim-policy: retain-volume-only

      可选字段

      目前仅支持配置“retain-volume-only”

      everest插件版本需 >= 1.2.9且回收策略为Delete时生效。如果回收策略是Delete且当前值设置为“retain-volume-only”删除PVC回收逻辑为:删除PV,保留底层存储卷。

      volumeHandle

      • 使用SFS容量型文件存储:填写文件存储的ID。

        获取方法:在CCE控制台,单击顶部的“服务列表 > 存储 > 弹性文件服务”,并选择SFS容量型。在列表中单击对应的弹性文件存储名称,在详情页中复制“ID”后的内容即可。

      everest.io/share-export-location

      文件存储的共享路径。

      • SFS容量型获取方法:在CCE控制台,单击顶部的“服务列表 > 存储 > 弹性文件服务”,在弹性文件服务列表中可以看到“挂载地址”列,即为文件存储的共享路径。

      mountOptions

      挂载参数。

      不设置时默认配置为如下配置,具体说明请参见设置文件存储挂载参数

      mountOptions:
      - vers=3
      - timeo=600
      - nolock
      - hard

      persistentVolumeReclaimPolicy

      集群版本号>=1.19.10且everest插件版本>=1.2.9时正式开放回收策略支持。

      支持Delete、Retain回收策略,详情请参见PV回收策略。多个PV使用同一个文件存储时建议使用Retain,避免级联删除底层卷。

      Delete:

      • Delete且不设置everest.io/reclaim-policy:删除PVC,PV资源与文件存储均被删除。
      • Delete且设置everest.io/reclaim-policy=retain-volume-only:删除PVC,PV资源被删除,文件存储资源会保留。

      Retain:删除PVC,PV资源与底层存储资源均不会被删除,需要手动删除回收。PVC删除后PV资源状态为“已释放(Released)”,不能直接再次被PVC绑定使用。

      storage

      PVC申请容量,单位为Gi。

      对文件存储来说,此处仅为校验需要(不能为空和0),设置的大小不起作用,此处设定为固定值1Gi。

    2. 执行以下命令,创建PV。
      kubectl apply -f pv-sfs.yaml

  3. 创建PVC。

    1. 创建pvc-sfs.yaml文件。
      apiVersion: v1
      kind: PersistentVolumeClaim
      metadata:
        name: pvc-sfs
        namespace: default
        annotations:
          volume.beta.kubernetes.io/storage-provisioner: everest-csi-provisioner
      spec:
        accessModes:
        - ReadWriteMany                  # 文件存储必须为ReadWriteMany
        resources:
          requests:
            storage: 1Gi               # 文件存储大小
        storageClassName: csi-nas     # 存储类名称,必须与PV的存储类一致。
        volumeName: pv-sfs    # PV的名称
      表2 关键参数说明

      参数

      是否必选

      描述

      storage

      PVC申请容量,单位为Gi。

      必须和已有PV的storage大小保持一致。

      volumeName

      PV的名称,必须与1中PV的名称一致。

    2. 执行以下命令,创建PVC。
      kubectl apply -f pvc-sfs.yaml

  4. 创建应用。

    1. 创建web-demo.yaml文件,本示例中将文件存储挂载至/data路径。
      apiVersion: apps/v1
      kind: Deployment
      metadata:
        name: web-demo
        namespace: default
      spec:
        replicas: 2
        selector:
          matchLabels:
            app: web-demo
        template:
          metadata:
            labels:
              app: web-demo
          spec:
            containers:
            - name: container-1
              image: nginx:latest
              volumeMounts:
              - name: pvc-sfs-volume    #卷名称,需与volumes字段中的卷名称对应
                mountPath: /data  #存储卷挂载的位置
            imagePullSecrets:
              - name: default-secret
            volumes:
              - name: pvc-sfs-volume    #卷名称,可自定义
                persistentVolumeClaim:
                  claimName: pvc-sfs    #已创建的PVC名称
    2. 执行以下命令,创建一个挂载文件存储的应用。
      kubectl apply -f web-demo.yaml

      工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化及共享性中的步骤进行验证。

验证数据持久化及共享性

  1. 查看部署的应用及文件。

    1. 执行以下命令,查看已创建的Pod。
      kubectl get pod | grep web-demo
      预期输出如下:
      web-demo-846b489584-mjhm9   1/1     Running   0             46s
      web-demo-846b489584-wvv5s   1/1     Running   0             46s
    2. 依次执行以下命令,查看Pod的/data路径下的文件。
      kubectl exec web-demo-846b489584-mjhm9 -- ls /data
      kubectl exec web-demo-846b489584-wvv5s -- ls /data

      两个Pod均无返回结果,说明/data路径下无文件。

  2. 执行以下命令,在/data路径下创建static文件。

    kubectl exec web-demo-846b489584-mjhm9 --  touch /data/static

  3. 执行以下命令,查看/data路径下的文件。

    kubectl exec web-demo-846b489584-mjhm9 -- ls /data

    预期输出如下:

    static

  4. 验证数据持久化

    1. 执行以下命令,删除名称为web-demo-846b489584-mjhm9的Pod。
      kubectl delete pod web-demo-846b489584-mjhm9

      预期输出如下:

      pod "web-demo-846b489584-mjhm9" deleted

      删除后,Deployment控制器会自动重新创建一个副本。

    2. 执行以下命令,查看已创建的Pod。
      kubectl get pod | grep web-demo
      预期输出如下,web-demo-846b489584-d4d4j为新建的Pod:
      web-demo-846b489584-d4d4j   1/1     Running   0             110s
      web-demo-846b489584-wvv5s    1/1     Running   0             7m50s
    3. 执行以下命令,验证新建的Pod中/data路径下的文件是否更改。
      kubectl exec web-demo-846b489584-d4d4j -- ls /data

      预期输出如下:

      static

      static文件仍然存在,则说明数据可持久化保存。

  5. 验证数据共享性

    1. 执行以下命令,查看已创建的Pod。
      kubectl get pod | grep web-demo
      预期输出如下:
      web-demo-846b489584-d4d4j   1/1     Running   0             7m
      web-demo-846b489584-wvv5s   1/1     Running   0             13m
    2. 执行以下命令,在任意一个Pod的/data路径下创建share文件。本例中选择名为web-demo-846b489584-d4d4j的Pod。
      kubectl exec web-demo-846b489584-d4d4j --  touch /data/share
      并查看该Pod中/data路径下的文件。
      kubectl exec web-demo-846b489584-d4d4j -- ls /data

      预期输出如下:

      share
      static
    3. 由于写入share文件的操作未在名为web-demo-846b489584-wvv5s的Pod中执行,在该Pod中查看/data路径下是否存在文件以验证数据共享性。
      kubectl exec web-demo-846b489584-wvv5s -- ls /data

      预期输出如下:

      share
      static

      如果在任意一个Pod中的/data路径下创建文件,其他Pod下的/data路径下均存在此文件,则说明两个Pod共享一个存储卷。

相关操作

您还可以执行表3中的操作。
表3 其他操作

操作

说明

操作步骤

事件

查看PVC或PV的事件名称、事件类型、发生次数、Kubernetes事件、首次和最近发生的时间,便于定位问题。

  1. 在左侧导航栏选择“容器存储”,在右侧选择“存储卷声明”“存储卷”页签。
  2. 单击目标实例操作列的“事件”,即可查看1小时内的事件(事件保存时间为1小时)。

查看YAML

可对PVC或PV的YAML文件进行查看、复制和下载。

  1. 在左侧导航栏选择“容器存储”,在右侧选择“存储卷声明”“存储卷”页签。
  2. 单击目标实例操作列的“查看YAML”,即可查看或下载YAML。