ceph rbd块存储简介
其前身就是ceph块设备,为ceph客户端提供基于块的持久存储,通常做为一个额外的磁盘使用,客户可以灵活的使用这个磁盘,可以作为裸设备使用,也可以格式化成文件系统,然后挂载使用。利用librbd库将块数据连续的存储在跨越多个OSD的条带存储空间。
创建rbc块存储
[root@k8s-node3 ~]# ceph osd lspools
rbd块存储默认是存在rbd pool里面的。
先创建一个rbd的pool。
[root@k8s-node3 ~]# ceph osd pool create rbd 128 ##128表示pg的个数
[root@k8s-node3 ~]# ceph osd lspools
0 rbd,
说明: 0是一个编号。
如果想删除,可以执行如下语句:
[root@k8s-node3 ~]# ceph osd pool delete rbd rbd --yes-i-really-really-mean-it
下面再创建一个rbd的块存储:
[root@k8s-node1 ~]# rbd create data --size 1024 -p rbd
、data是我们自己取的rbd块存储的名字;
-p是指定pool,也可以不加-p,不加就默认是rbd pool;
--size指定大小,默认单位是MB。
查看rbd块存储的相关信息:
[root@k8s-node1 ~]# rbd --image data info
rbd image 'data':
size 1024 MB in 256 objects ##objects是块的意思
order 22 (4096 kB objects)
block_name_prefix: rbd_data.1149238e1f29
format: 2
features: layering, exclusive-lock, object-map, fast-diff, deep-flatten
flags: