通过静态存储卷使用已有文件存储
文件存储(SFS)是一种可共享访问,并提供按需扩展的高性能文件系统(NAS),适用大容量扩展以及成本敏感型的业务场景。本文介绍如何使用已有的文件存储静态创建PV和PVC,并在工作负载中实现数据持久化与共享性。
前提条件
- 您已经创建好一个集群,并且在该集群中安装CSI插件(everest)。
- 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。
- 您已经创建好一个文件存储,并且文件存储与集群在同一个VPC内。
约束与限制
- 支持多个PV挂载同一个SFS或SFS Turbo,但有如下限制:
- 多个不同的PVC/PV使用同一个底层SFS或SFS Turbo卷时,如果挂载至同一Pod使用,会因为PV的volumeHandle参数值相同导致无法为Pod挂载所有PVC,出现Pod无法启动的问题,请避免该使用场景。
- PV中persistentVolumeReclaimPolicy参数需设置为Retain,否则可能存在一个PV删除时,级联删除底层卷,其他关联这个底层卷的PV会由于底层存储被删除导致使用出现异常。
- 重复用底层存储时,建议在应用层做好多读多写的隔离保护,防止产生的数据覆盖和丢失。
通过kubectl命令行使用已有文件存储
- 使用kubectl连接集群。
- 创建PV。
- 创建pv-sfs.yaml文件。
SFS容量型:
apiVersion: v1 kind: PersistentVolume metadata: annotations: pv.kubernetes.io/provisioned-by: everest-csi-provisioner everest.io/reclaim-policy: retain-volume-only # 可选字段,删除PV,保留底层存储卷 name: pv-sfs # PV的名称 spec: accessModes: - ReadWriteMany # 访问模式,文件存储必须为ReadWriteMany capacity: storage: 1Gi # 文件存储容量大小 csi: driver: nas.csi.everest.io # 挂载依赖的存储驱动 fsType: nfs volumeHandle: <your_volume_id> # SFS容量型文件存储的ID volumeAttributes: everest.io/share-export-location: <your_location> #文件存储的共享路径 storage.kubernetes.io/csiProvisionerIdentity: everest-csi-provisioner persistentVolumeReclaimPolicy: Retain # 回收策略 storageClassName: csi-nas # 存储类名称:csi-nas表示使用SFS容量型 mountOptions: [] # 挂载参数
表1 关键参数说明 参数
是否必选
描述
everest.io/reclaim-policy: retain-volume-only
否
可选字段
目前仅支持配置“retain-volume-only”
everest插件版本需 >= 1.2.9且回收策略为Delete时生效。如果回收策略是Delete且当前值设置为“retain-volume-only”删除PVC回收逻辑为:删除PV,保留底层存储卷。
volumeHandle
是
everest.io/share-export-location
是
文件存储的共享路径。
- SFS容量型获取方法:在CCE控制台,单击顶部的“服务列表 > 存储 > 弹性文件服务”,在弹性文件服务列表中可以看到“挂载地址”列,即为文件存储的共享路径。
mountOptions
是
挂载参数。
不设置时默认配置为如下配置,具体说明请参见设置文件存储挂载参数。
mountOptions: - vers=3 - timeo=600 - nolock - hard
persistentVolumeReclaimPolicy
是
集群版本号>=1.19.10且everest插件版本>=1.2.9时正式开放回收策略支持。
支持Delete、Retain回收策略,详情请参见PV回收策略。多个PV使用同一个文件存储时建议使用Retain,避免级联删除底层卷。
Delete:
- Delete且不设置everest.io/reclaim-policy:删除PVC,PV资源与文件存储均被删除。
- Delete且设置everest.io/reclaim-policy=retain-volume-only:删除PVC,PV资源被删除,文件存储资源会保留。
Retain:删除PVC,PV资源与底层存储资源均不会被删除,需要手动删除回收。PVC删除后PV资源状态为“已释放(Released)”,不能直接再次被PVC绑定使用。
storage
是
PVC申请容量,单位为Gi。
对文件存储来说,此处仅为校验需要(不能为空和0),设置的大小不起作用,此处设定为固定值1Gi。
- 执行以下命令,创建PV。
kubectl apply -f pv-sfs.yaml
- 创建pv-sfs.yaml文件。
- 创建PVC。
- 创建pvc-sfs.yaml文件。
apiVersion: v1 kind: PersistentVolumeClaim metadata: name: pvc-sfs namespace: default annotations: volume.beta.kubernetes.io/storage-provisioner: everest-csi-provisioner spec: accessModes: - ReadWriteMany # 文件存储必须为ReadWriteMany resources: requests: storage: 1Gi # 文件存储大小 storageClassName: csi-nas # 存储类名称,必须与PV的存储类一致。 volumeName: pv-sfs # PV的名称
表2 关键参数说明 参数
是否必选
描述
storage
是
PVC申请容量,单位为Gi。
必须和已有PV的storage大小保持一致。
volumeName
是
PV的名称,必须与1中PV的名称一致。
- 执行以下命令,创建PVC。
kubectl apply -f pvc-sfs.yaml
- 创建pvc-sfs.yaml文件。
- 创建应用。
- 创建web-demo.yaml文件,本示例中将文件存储挂载至/data路径。
apiVersion: apps/v1 kind: Deployment metadata: name: web-demo namespace: default spec: replicas: 2 selector: matchLabels: app: web-demo template: metadata: labels: app: web-demo spec: containers: - name: container-1 image: nginx:latest volumeMounts: - name: pvc-sfs-volume #卷名称,需与volumes字段中的卷名称对应 mountPath: /data #存储卷挂载的位置 imagePullSecrets: - name: default-secret volumes: - name: pvc-sfs-volume #卷名称,可自定义 persistentVolumeClaim: claimName: pvc-sfs #已创建的PVC名称
- 执行以下命令,创建一个挂载文件存储的应用。
kubectl apply -f web-demo.yaml
工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化及共享性中的步骤进行验证。
- 创建web-demo.yaml文件,本示例中将文件存储挂载至/data路径。
验证数据持久化及共享性
- 查看部署的应用及文件。
- 执行以下命令,查看已创建的Pod。
kubectl get pod | grep web-demo
预期输出如下:web-demo-846b489584-mjhm9 1/1 Running 0 46s web-demo-846b489584-wvv5s 1/1 Running 0 46s
- 依次执行以下命令,查看Pod的/data路径下的文件。
kubectl exec web-demo-846b489584-mjhm9 -- ls /data kubectl exec web-demo-846b489584-wvv5s -- ls /data
两个Pod均无返回结果,说明/data路径下无文件。
- 执行以下命令,查看已创建的Pod。
- 执行以下命令,在/data路径下创建static文件。
kubectl exec web-demo-846b489584-mjhm9 -- touch /data/static
- 执行以下命令,查看/data路径下的文件。
kubectl exec web-demo-846b489584-mjhm9 -- ls /data
预期输出如下:
static
- 验证数据持久化
- 执行以下命令,删除名称为web-demo-846b489584-mjhm9的Pod。
kubectl delete pod web-demo-846b489584-mjhm9
预期输出如下:
pod "web-demo-846b489584-mjhm9" deleted
删除后,Deployment控制器会自动重新创建一个副本。
- 执行以下命令,查看已创建的Pod。
kubectl get pod | grep web-demo
预期输出如下,web-demo-846b489584-d4d4j为新建的Pod:web-demo-846b489584-d4d4j 1/1 Running 0 110s web-demo-846b489584-wvv5s 1/1 Running 0 7m50s
- 执行以下命令,验证新建的Pod中/data路径下的文件是否更改。
kubectl exec web-demo-846b489584-d4d4j -- ls /data
预期输出如下:
static
static文件仍然存在,则说明数据可持久化保存。
- 执行以下命令,删除名称为web-demo-846b489584-mjhm9的Pod。
- 验证数据共享性
- 执行以下命令,查看已创建的Pod。
kubectl get pod | grep web-demo
预期输出如下:web-demo-846b489584-d4d4j 1/1 Running 0 7m web-demo-846b489584-wvv5s 1/1 Running 0 13m
- 执行以下命令,在任意一个Pod的/data路径下创建share文件。本例中选择名为web-demo-846b489584-d4d4j的Pod。
kubectl exec web-demo-846b489584-d4d4j -- touch /data/share
并查看该Pod中/data路径下的文件。kubectl exec web-demo-846b489584-d4d4j -- ls /data
预期输出如下:
share static
- 由于写入share文件的操作未在名为web-demo-846b489584-wvv5s的Pod中执行,在该Pod中查看/data路径下是否存在文件以验证数据共享性。
kubectl exec web-demo-846b489584-wvv5s -- ls /data
预期输出如下:
share static
如果在任意一个Pod中的/data路径下创建文件,其他Pod下的/data路径下均存在此文件,则说明两个Pod共享一个存储卷。
- 执行以下命令,查看已创建的Pod。