Skip to content

giovanism/rook-demo

Repository files navigation

Demonstrasi Rook dan Dynamic Provisioning

Hai! Repository ini bertujuan untuk membantu menunjukkan pemakaian storage orchestrator Rook di ekosistem Kubernetes. Selain itu ada juga contoh sederhana bagaimana mengonsumsi storage yang dialokasikan menggunakan dynamic provisioning.

Rook

Kebanyakan langkah-langkah dan manifest yang dipakai di sini diambil dari dokumentasi resmi Rook dan panduan quickstart Ceph Storage.

Setup Klaster

Berikut bukan batas minimum yang mutlak untuk klaster Rook, tapi setup yang digunakan pada demo ini seperti berikut:

  • Kubernetes v1.18
  • 3 worker node
  • Kernel module rbd dan paket lvm2 di setiap node
  • Satu block storage berukuran 8GB untuk setiap node (e.g. /dev/sda) yang masih kosong tanpa tabel partisi atau filesystem.

Untuk konfigurasi lain, silahkan kunjungi prasyarat lengkap untuk klaster Ceph.

Catatan: Untuk membuat klaster Kubernetes bisa memakai alat seperti Kubespray atau Kops. Kubespray mendukung pembuatan klaster di VM secara lokal menggunakan vagrant.

Catatan: Untuk mencoba dynamic provisioning tanpa Rook, pastikan bahwa klaster memiliki StorageClass default, contohnya menggunakan Minikube dengan addon storage-provisioner yang sederhana. Lewati Rook.

Deploy Operator Rook dan Buat Klaster Ceph

Contoh ini hanya akan mendemonstrasikan volumeMode: Filesystem, sehingga kita hanya membutuhkan CSI driver untuk CephFS saja. Di manifest operator.yaml yang sudah diberikan, CSI driver RBD sudah dimatikan dengan mengubah ConfigMap rook-ceph-operator-config.

 kind: ConfigMap
 apiVersion: v1
 metadata:
   name: rook-ceph-operator-config
   namespace: rook-ceph
   data:
-    ROOK_CSI_ENABLE_RBD: "true"
+    ROOK_CSI_ENABLE_RBD: "false"

Selanjutnya, untuk mendeploy Operator Rook beserta Klaster Ceph hanya perlu menerapkan berkas-berkas manifest berikut.

kubectl create -f common.yaml
kubectl create -f operator.yaml
kubectl create -f cluster.yaml

Klaster Ceph yang siap digunakan kurang lebih akan memiliki mon yang memenuhi quorum, sebuah mgr, dan paling tidak satu OSD yang aktif.

Every 2,0s: kubectl get -n rook-ceph pods                clustermodulus04: Sun Jul 26 16:19:25 2020

NAME                                              READY   STATUS      RESTARTS   AGE
csi-cephfsplugin-h95tl                            3/3     Running     0          5m33s
csi-cephfsplugin-wxzbq                            3/3     Running     0          5m33s
csi-cephfsplugin-xh68r                            3/3     Running     0          5m39s
rook-ceph-crashcollector-k8s-1-7fbcbd7885-6x4rk   1/1     Running     0          44m
rook-ceph-crashcollector-k8s-2-84748868b4-qgqkj   1/1     Running     0          12m
rook-ceph-crashcollector-k8s-3-88cddfcf9-5qwj4    1/1     Running     0          51m
rook-ceph-mgr-a-8698fbd8c5-2s9vm                  1/1     Running     0          26m
rook-ceph-mon-a-7887d68cbd-zq8h2                  1/1     Running     0          51m
rook-ceph-mon-b-59f8d9cf87-bqfc6                  1/1     Running     0          51m
rook-ceph-mon-d-868c7d5785-2fgrf                  1/1     Running     0          44m
rook-ceph-operator-db86d47f5-s9dfm                1/1     Running     0          7m5s
rook-ceph-osd-0-95d5d4ff7-hq9gf                   1/1     Running     0          13m
rook-ceph-osd-1-d4c46f558-hffn6                   1/1     Running     0          13m
rook-ceph-osd-2-5897d74c54-pfftv                  1/1     Running     0          7m7s
rook-ceph-osd-prepare-k8s-1-t6c8q                 0/1     Completed   0          19m
rook-ceph-osd-prepare-k8s-2-qmv8b                 0/1     Completed   0          19m
rook-ceph-osd-prepare-k8s-3-k4l9v                 0/1     Completed   0          13m
rook-discover-cltcq                               1/1     Running     0          5m57s
rook-discover-g4zmk                               1/1     Running     0          5m57s
rook-discover-mkhwr                               1/1     Running     0          5m57s

Bisa juga menggunakan Pod toolbox serbaguna untuk mengecek status klaster dan melakukan troubleshooting.

kubectl create -f toolbox.yaml
kubectl exec -it -n rook-ceph deploy/rook-ceph-tools -- ceph status

Status klaster akan ditampilkan kurang lebih seperti berikut.

  cluster:
    id:     5d445d60-62b5-4200-b1f1-2984c0c7f654
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,d (age 4m)
    mgr: a(active, since 9m)
    osd: 3 osds: 3 up (since 10m), 3 in (since 10m)

  data:
    pools:   1 pools, 1 pgs
    objects: 0 objects, 0 B
    usage:   3.0 GiB used, 21 GiB / 24 GiB avail
    pgs:     1 active+clean

Membuat Filesystem

Untuk membuat filesystem di atas klaster Ceph yang sudah dibuat, cukup perlu mendefinisikan resource CephFilesystem. CephFilesystem bisa mengatur mulai dari replikasi metadata, kompresi, sampai batas resource yang akan digunakan oleh metadata server nanti. Kali ini, manifest default yang diberikan sudah cukup untuk kebutuhan demo ini, jadi bisa langsung dibuat saja.

kubectl create -f filesystem.yaml

Dynamic Provisioning

Untuk menggunakan dynamic provisioning, masih ada pekerjaan rumah yang harus dikerjakan. Belum ada StorageClass yang bisa dipakai untuk memenuhi permintaan storage yang dideskripsikan oleh PVC (PersistentVolumeClaim). StorageClass yang dibuat akan menggunakan CSI CephFS Provisioner yang telah disediakan oleh Operator Rook sebelumnya. Di balik layar, provisioner tadi diimplementasikan sebagai CSI Plugin.

Buat StorageClass dengan menerapkan manifest csi-storageclass.yaml.

kubectl create -f csi-storageclass.yaml

Agar lebih afdal, sebagai satu-satunya StorageClass yang tersedia di klaster bisa ditandai sebagai kelas default. StorageClass default dapat menyediakan PV (PersistentVolume) kepada PVC yang tidak menspesifikasikan kolom storageClassName.

kubectl patch -n rook-ceph storageclass rook-cephfs -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'

Atau kita dapat menambahkan 2 baris kode sumber berikut:

annotations:
    storageclass.kubernetes.io/is-default-class: true

pada berkas csi-storageclass.yaml pada bagian metadata.

Dynamic Provisioning in Action

Sekarang untuk menggunakan storage yang sudah diatur menggunakan dynamic provisioning, terapkan manifest test-daemonset.yaml untuk membuat satu PVC dan DaemonSet yang akan memakai volume dari PVC tersebut.

kubectl create -f test-daemonset.yaml

Sementara menunggu PV diikat ke PVC dan DaemonSet kita berjalan, mari kunjungi kembali resource PVC yang dibuat.

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: test-pvc-daemonset
spec:
  accessModes:
    - ReadWriteMany
  volumeMode: Filesystem
  resources:
    requests:
      storage: 1Gi

PVC yang digunakan memiliki mode akses RWX (ReadWriteMany) sehingga bisa dipasang sebagai read-write oleh banyak node. Sekali lagi banyak node, bukan Pod. Mode RWX mengeksploitasi fitur akses konkuren yang menjadi salah satu keuntungan kebanyakan solusi storage berbasis filesystem seperti NFS, Azure Files, dan Amazon EFS.

Lalu, ketika Pod DaemonSet sudah berjalan kita bisa cek bahwa mereka dijadwalkan dan berjalan di node yang berbeda-beda.

$ kubectl get pod -l app=busybox -o wide
NAME                      READY   STATUS    RESTARTS   AGE   IP              NODE    NOMINATED NODE   READINESS GATES
busybox-daemonset-hccnw   1/1     Running   0          29m   10.233.66.168   k8s-3   <none>           <none>
busybox-daemonset-hshpm   1/1     Running   0          29m   10.233.64.113   k8s-1   <none>           <none>
busybox-daemonset-nnscb   1/1     Running   0          29m   10.233.65.149   k8s-2   <none>           <none>

Kemudian, untuk mensimulasikan akses konkuren ke filesystem bisa memakai perintah sederhana berikut di beberapa terminal secara bersamaan menggunakan aplikasi kesayangan Anda masing-masing (tmux, screen, Tilix, dkk.).

$ kubectl exec -it busybox-daemonset-hshpm -- sh -c 'time head -c 256m /dev/urandom > /data/penting0'
real    2m 16.00s
user    0m 1.48s
sys     0m 12.76s
$ kubectl exec -it busybox-daemonset-hccnw -- sh -c 'time head -c 256m /dev/urandom > /data/penting1'
real    1m 38.65s
user    0m 1.31s
sys     0m 10.32s
$ kubectl exec -it busybox-daemonset-nnscb -- ls -lha /data
total 357M
drwxrwxrwx    1 root     root           2 Jul 26 17:53 .
drwxr-xr-x    1 root     root        4.0K Jul 26 17:40 ..
-rw-r--r--    1 root     root      162.1M Jul 26 17:53 penting0
-rw-r--r--    1 root     root      194.8M Jul 26 17:54 penting1

Untuk menghentikan DaemonSet busybox dan juga menghapus PVC yang digunakan cukup jalankan perintah di bawah. Jangan lupa bahwa StorageClass yang kita pakai memiliki nilai reclaimPolicy: Delete, sehingga begitu PVC dihapus maka resource storage yang digunakan oleh PV akan diklaim kembali dengan cara menghapus PV dan data di dalamnya seperti contoh output di bawah perintah.

kubectl delete -f test-daemonset.yaml
$ kubectl get pv
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS     CLAIM                        STORAGECLASS   REASON   AGE
pvc-36550fd2-e309-4cce-bef0-a4cf9db67c37   1Gi        RWX            Delete           Released   default/test-pvc-daemonset   rook-cephfs             35m
$ kubectl get pv
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS        CLAIM                        STORAGECLASS   REASON   AGE
pvc-36550fd2-e309-4cce-bef0-a4cf9db67c37   1Gi        RWX            Delete           Terminating   default/test-pvc-daemonset   rook-cephfs             37m
$ kubectl get pv
No resources found in default namespace.

Meskipun contoh yang diberikan masih belum praktis, namun cukup menunjukkan kapabilitas solusi storage yang dibangun menggunakan resource Kubernetes seperti PVC, StorageClass dan CSI Plugin.

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published