通过动态存储卷使用文件存储
本文介绍如何通过存储类动态创建PV和PVC,并在工作负载中实现数据持久化与共享性。
使用kubectl自动创建文件存储
- 使用kubectl连接集群。
- 使用StorageClass动态创建PVC及PV。
- 创建pvc-sfs-auto.yaml文件。
apiVersion: v1 kind: PersistentVolumeClaim metadata: name: pvc-sfs-auto namespace: default annotations: everest.io/crypt-key-id: <your_key_id> # 可选字段,密钥的id,使用该密钥加密文件存储 everest.io/crypt-alias: sfs/default # 可选字段,密钥的名称,创建加密卷时必须提供该字段 everest.io/crypt-domain-id: <your_domain_id> # 可选字段,指定加密卷所属租户的ID,创建加密卷时必须提供该字段 spec: accessModes: - ReadWriteMany # 文件存储必须为ReadWriteMany resources: requests: storage: 1Gi # 文件存储大小 storageClassName: csi-nas # StorageClass类型为文件存储
表1 关键参数说明 参数
是否必选
描述
storage
是
PVC申请容量,单位为Gi。
对文件存储来说,此处仅为校验需要(不能为空和0),设置的大小不起作用,此处设定为固定值1Gi。
everest.io/crypt-key-id
否
当文件存储是加密卷时为必填,填写创建文件存储时选择的加密密钥ID,可使用自定义密钥或名为“sfs/default”的云硬盘默认密钥。
获取方法:在数据加密控制台,找到需要加密的密钥,复制密钥ID值即可。
everest.io/crypt-alias
否
密钥的名称,创建加密卷时必须提供该字段。
获取方法:在数据加密控制台,找到需要加密的密钥,复制密钥名称即可。
everest.io/crypt-domain-id
否
指定加密卷所属租户的ID,创建加密卷时必须提供该字段。
获取方法:在云服务器控制台,鼠标悬浮至右上角的用户名称并单击“我的凭证”,复制账号ID即可。
- 执行以下命令,创建PVC。
kubectl apply -f pvc-sfs-auto.yaml
- 创建pvc-sfs-auto.yaml文件。
- 创建应用。
- 创建web-demo.yaml文件,本示例中将文件存储挂载至/data路径。
apiVersion: apps/v1 kind: Deployment metadata: name: web-demo namespace: default spec: replicas: 2 selector: matchLabels: app: web-demo template: metadata: labels: app: web-demo spec: containers: - name: container-1 image: nginx:latest volumeMounts: - name: pvc-sfs-volume #卷名称,需与volumes字段中的卷名称对应 mountPath: /data #存储卷挂载的位置 imagePullSecrets: - name: default-secret volumes: - name: pvc-sfs-volume #卷名称,可自定义 persistentVolumeClaim: claimName: pvc-sfs-auto #已创建的PVC名称
- 执行以下命令,创建一个挂载文件存储的应用。
kubectl apply -f web-demo.yaml
工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化及共享性中的步骤进行验证。
- 创建web-demo.yaml文件,本示例中将文件存储挂载至/data路径。
验证数据持久化及共享性
- 查看部署的应用及文件。
- 执行以下命令,查看已创建的Pod。
kubectl get pod | grep web-demo
预期输出如下:web-demo-846b489584-mjhm9 1/1 Running 0 46s web-demo-846b489584-wvv5s 1/1 Running 0 46s
- 依次执行以下命令,查看Pod的/data路径下的文件。
kubectl exec web-demo-846b489584-mjhm9 -- ls /data kubectl exec web-demo-846b489584-wvv5s -- ls /data
两个Pod均无返回结果,说明/data路径下无文件。
- 执行以下命令,查看已创建的Pod。
- 执行以下命令,在/data路径下创建static文件。
kubectl exec web-demo-846b489584-mjhm9 -- touch /data/static
- 执行以下命令,查看/data路径下的文件。
kubectl exec web-demo-846b489584-mjhm9 -- ls /data
预期输出如下:
static
- 验证数据持久化
- 执行以下命令,删除名称为web-demo-846b489584-mjhm9的Pod。
kubectl delete pod web-demo-846b489584-mjhm9
预期输出如下:
pod "web-demo-846b489584-mjhm9" deleted
删除后,Deployment控制器会自动重新创建一个副本。
- 执行以下命令,查看已创建的Pod。
kubectl get pod | grep web-demo
预期输出如下,web-demo-846b489584-d4d4j为新建的Pod:web-demo-846b489584-d4d4j 1/1 Running 0 110s web-demo-846b489584-wvv5s 1/1 Running 0 7m50s
- 执行以下命令,验证新建的Pod中/data路径下的文件是否更改。
kubectl exec web-demo-846b489584-d4d4j -- ls /data
预期输出如下:
static
static文件仍然存在,则说明数据可持久化保存。
- 执行以下命令,删除名称为web-demo-846b489584-mjhm9的Pod。
- 验证数据共享性
- 执行以下命令,查看已创建的Pod。
kubectl get pod | grep web-demo
预期输出如下:web-demo-846b489584-d4d4j 1/1 Running 0 7m web-demo-846b489584-wvv5s 1/1 Running 0 13m
- 执行以下命令,在任意一个Pod的/data路径下创建share文件。本例中选择名为web-demo-846b489584-d4d4j的Pod。
kubectl exec web-demo-846b489584-d4d4j -- touch /data/share
并查看该Pod中/data路径下的文件。kubectl exec web-demo-846b489584-d4d4j -- ls /data
预期输出如下:
share static
- 由于写入share文件的操作未在名为web-demo-846b489584-wvv5s的Pod中执行,在该Pod中查看/data路径下是否存在文件以验证数据共享性。
kubectl exec web-demo-846b489584-wvv5s -- ls /data
预期输出如下:
share static
如果在任意一个Pod中的/data路径下创建文件,其他Pod下的/data路径下均存在此文件,则说明两个Pod共享一个存储卷。
- 执行以下命令,查看已创建的Pod。