洞察纵观鸿蒙next版本,如何凭借FinClip加强小程序的跨平台管理,确保企业在数字化转型中的高效运营和数据安全?
1005
2022-09-28
ceph集群快照、clone相关命令整理v1
简介:快照
快照是一个镜像在某一个特定时间点的只读拷贝。其中Ceph块设备的高级功能是能够创建快照保留镜像的历史状态。Ceph支持快照分层,允许快速克隆镜像。 Ceph还支持使用RDB和如KVM,libvirt等创建快照。当做快照时需要停止I/O。如果镜像包含文件系统,文件系统必须在做快照前保持一致性。
本文档主要从以下几个方面进行测试:
1:快照、创建、查询、删除、清理;
2:快照clone、增量快照、保护快照;
3:image导入、导出;
4:利用ceph存储快照功能,做数据备份、数据恢复;
5:image 空间resize(xfs、ext4文件系统);
6:pool快照创建、pool copy、pool快照查看、删除;
文档内容初步整理,后续将不断完善,内容有误的地方欢迎留言指正,我会及时更新修正。
##############测试目的#############
1:image快照如何创建、删除、查询;
2:快照回滚、数据恢复;
#############步骤1~15##############
1:创建一个pool
[root@node241 ~]# ceph osd pool create mypool 24
pool 'mypool' created
2:要创建一个新的RBD镜像为10GB
rbd -p mypool create myimage --size 10240
或者:
rbd create mypool/myimage --size 10240
3:再新建一个镜像、做快照导入测试使用
rbd create mypool/myimage1 --size 10240
4:查看镜像
[root@node242 ~]# rbd --pool mypool ls
myimage
myimage1
5:映射镜像 myimage
[root@node242 ~]# rbd map mypool/myimage
/dev/rbd0
6:格式化
mkfs.xfs /dev/rbd0
7:建立挂载点、挂载磁盘
mkdir /myimage
mount /dev/rbd0 /myimage/
8:映射镜像 myimage1
[root@node242 ~]# rbd map mypool/myimage1
/dev/rbd1
9:格式化
mkfs.xfs /dev/rbd1
10:建立挂载点、挂载磁盘
mkdir /myimage1
mount /dev/rbd1 /myimage1/
11:验证查看挂载分区
[root@node242 ~]# df -Th
Filesystem Type Size Used Avail Use% Mounted on
。。。。。。。。。。。。。。。
/dev/rbd0 xfs 10G 33M 10G 1% /myimage
/dev/rbd1 xfs 10G 33M 10G 1% /myimage1
[root@node242 ~]#
12:myimage目录创建测试文件
touch /myimage/{1..10}myimage.data.txt
查看数据生成
ll /myimage
total 0
-rw-r--r-- 1 root root 0 Oct 9 12:24 10myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 1myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 2myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 3myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 4myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 5myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 6myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 7myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 8myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 9myimage.data.txt
13:myimge创建一个快照:
[root@node242 ~]# rbd snap create mypool/myimage@myimagesnap
14:查看快照信息
[root@node242 ~]# rbd snap ls mypool/myimage
SNAPID NAME SIZE
2 myimagesnap 10240 MB
15:验证数据回滚
15.1:然后删除所有创建的文件
[root@node242 ~]# rm -rf /myimage/*
[root@node242 ~]# ll /myimage
total 0
15.2:回滚快照,
注意:回滚快照就是将当前镜像的数据用快照重新替换。回滚的执行时间随着镜像大小的增加而增加。克隆将会比回滚快照更花时间。
使用RBD命令回滚快照,指定snap rollback选项,指定池名称,镜像名称和单元名称。
[root@node242 ~]# rbd snap rollback mypool/myimage@myimagesnap
Rolling back to snapshot: 100% complete...done.
用于回滚部分,你要注意回滚意味着从快照中的数据覆盖当前版本,需要更长的时间与较大的镜像。因此,克隆是可取的快速恢复。
注意: 镜像快照回滚意味着从快照覆盖原快照当时版本的镜像数据。执行回滚所花费的时间与镜像的大小有关。快照克隆比快照回滚恢复得更快,它是返回到一个预先存在的状态优选的方法。
15.3:卸载挂载目录
[root@node242 ~]# umount /myimage
15.4:重新挂载
[root@node242 ~]# mount /dev/rbd0 /myimage
15.5:查看数据,已经恢复
[root@node242 ~]# ll /myimage
total 0
-rw-r--r-- 1 root root 0 Oct 9 12:24 10myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 1myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 2myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 3myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 4myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 5myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 6myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 7myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 8myimage.data.txt
-rw-r--r-- 1 root root 0 Oct 9 12:24 9myimage.data.txt
##############测试目的#############
1:image导入、导出,数据备份恢复;
2:导出image信息、导入到其它pool;
#############步骤16##############
16:###导出、导入镜像
16.1: 把ceph pool中的一个镜像导出
[root@node242 ~]# rbd export -p mypool --image myimage /tmp/exportmyimage.img
Exporting image: 100% complete...done
16.2:验证查看导出文件
[root@node242 ~]# ll /tmp/exportmyimage.img
-rw-r--r-- 1 root root 10737418240 Oct 9 13:29 /tmp/exportmyimage.img
16.3:把一个镜像导入ceph中
导入镜像名,不能与现有pool中的image重名
[root@node242 ~]# rbd import /tmp/exportmyimage.img -p mypool --image myimage2
Importing image: 100% complete...done.
16.4:验证查看导入镜像文件
[root@node242 ~]# rbd -p mypool ls
myimage
myimage1
myimage2
16.7:映射导入挂载镜像
[root@node242 ~]# rbd map mypool/myimage2
/dev/rbd2
16.8:挂载报错
[root@node242 ~]# mount -t xfs /dev/rbd2 /myimage3
mount: wrong fs type, bad option, bad superblock on /dev/rbd2,
missing codepage or helper program, or other error
In some cases useful info is found in syslog - try
dmesg | tail or so.
16.9:排查发现新导入的镜像的uuid和之前只做image 的uuid 一样,看来本机挂载需要修改硬盘的uuid 才行
[root@node242 ~]# blkid
。。。。。。。。。。。。。。。。。。。。
/dev/rbd0: UUID="517f2923-04eb-4168-ac0d-229a90e17534" TYPE="xfs" ????
/dev/rbd1: UUID="aea281df-22e6-4411-a98c-688de1b45500" TYPE="xfs"
/dev/rbd2: UUID="517f2923-04eb-4168-ac0d-229a90e17534" TYPE="xfs" ????
[root@node242 ~]#
16.10:换另外一台服务器试一下
先查看镜像是否存在
[root@node245 ~]# rbd -p mypool ls
myimage
myimage1
myimage2
16.11:做镜像映射
[root@node245 ~]# rbd map mypool/myimage2
/dev/rbd0
16.12:创建挂载目录
[root@node245 ~]# mkdir /myimage2
16.13:挂载分区
[root@node245 ~]# mount /dev/rbd0 /myimage2/
16.14:验证数据与到在源镜像导出时数据一致
[root@node245 ~]# ll /myimage2/
total 0
-rw-r--r--. 1 root root 0 Oct 9 00:24 10myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 1myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 2myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 3myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 4myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 5myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 6myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 7myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 8myimage.data.txt
-rw-r--r--. 1 root root 0 Oct 9 00:24 9myimage.data.txt
16.15:查看uuid 与源id一致
[root@node245 myimage2]# blkid
。。。。。。。。。。。。。。。。。
/dev/rbd0: UUID="517f2923-04eb-4168-ac0d-229a90e17534" TYPE="xfs"
16.16: 总结
导出的镜像文件导入集群后生成的硬盘UUID和之前的源镜像一致,挂载磁盘使用不能挂载再同一台主机。
##############测试目的#############
1:查看快照;
2:删除快照;
3:删除写保护的快照;
4:清除所有快照;
#############步骤17~19##############
17:查看快照
[root@node245 ~]# rbd snap ls mypool/myimage
SNAPID NAME SIZE
2 myimagesnap 10240 MB
18:要删除一个快照:
[root@node245 ~]# rbd snap rm mypool/myimage@myimagesnap
删除snap 删除snap报(rbd: snapshot 'snapshot-xxxx' is protected from removal.)写保护 ,使用 rbd snap unprotect volumes/snapshot-xxx' 解锁,然后再删除
注意: Ceph的OSDs删除数据不同步,所以删除快照的磁盘空间不会立即释放。
19:清除快照
19.1:用RBD删除所有快照镜像,指定snap purge选项和映像名称。
rbd --pool {pool-name} snap purge {image-name}
19.2:查看
[root@node243 t1image]# rbd snap ls mypool/myimage1
SNAPID NAME SIZE
3 myimage1snap 10240 MB
5 myimage1snap1 10240 MB
6 myimage1snap2 10240 MB
7 myimage1snap3 10240 MB
8 myimage1snap4 10240 MB
19.3:清除所有快照
[root@node243 t1image]# rbd snap purge mypool/myimage1
Removing all snapshots: 100% complete...done.
19.4:再次查看所有快照已经被删除
[root@node243 t1image]# rbd snap ls mypool/myimage1
##############RBD -管理RADOS块设备(RBD)的镜像,增量快照功能演示#############
##############测试目的###########
1:快照使用简介;
1:快照相关参数详解;
1:快照相关命令详解;
#############步骤1~3#############
1:简介
rbd [-c ceph.conf][-m monaddr][-p| -pool pool][-size size][-order bits][command...]
说明
rbd是一个实用程序,用于操纵rados块设备(RBD)的镜像,QEMU/KVM就是使用的Linux rbd驱动和rbd存储驱动。RBD镜像是分在对象和存储在RADOS对象存储中的简单的块设备。则散置对象镜像的大小必须是2的幂。
选项
-c ceph.conf, -- conf ceph.conf
使用ceph.conf配置文件,而不是默认的/etc/ceph/ceph.conf文件在启动过程中确定监控地址。
-m monaddress [:port]
连接到指定的监视地址上(而不是ceph.conf)。
-P pool, --pool pool
与池进行交互。大多数命令是必需的。
--no-progress
不输出进度信息(默认情况下,某些命令输出标准错误)
2:参数
--image-format format
指定使用对象布局。默认值是1。
format 1 - 一个新的RBD镜像使用原始的格式。所有版本的librbd和RBD内核模块理解这种格式,但不支持新的功能,如克隆。
format 2- 使用的第二个的RBD格式,这是在这个时候由librbd(但不包括RBD内核模块)支持。这增加了支持克隆和更容易扩展,让更多的功能,在未来的。
--snap snap
指定快照名称具体操作。
3:命令
clone [ parent-snapname ] [ image-name ]
将会创建一个父类快照的克隆(子类的副本) 。对象命令将会与父类镜像相同,除非指定。否则 大小将会与父类快照相同。
父类快照必须要被保护 (参阅 rbd snap protect).。这需要format 2。
flatten [image-name]
如果镜像是被克隆的,从父类快照福之所有共享的块并且让子类独立于父类, 切断子类与父类快照的链接。如果没有依赖的克隆,父类快照能被不保护并且能被删除。这需要format 2。
children [image-name]
列出给定的快照中镜像的克隆。这检查了每个池,输出池名/镜像名的结果。
export [image-name] [dest-path]
导出至dest-path路径的镜像(在stdout中使用 )。
import [path] [dest-path]
创建一个新的镜像,并导入其数据路径(使用-for 标准输出)。导入操作,如果可能的话,将尝试创建稀少RBD镜像。进口从标准输入,稀少化单元目标镜像数据块大小(1 << order)。
export-diff [image-name] [dest-path] [-from-snap snapname]
导出增量差异的镜像到dest的路径(使用 - 在stdout中)。如果指定一个初始快照,因为该快照都包含唯一的改变,否则,任何地区的镜像包含的数据。最终的快照被指定使用的标准 –snap或者 @snap 语法(见下文)。diff格式包括镜像的元数据,镜像大小的变化,并开始和结束的快照。它有效地代表丢弃或“零”的镜像区域。
import-diff [src-path] [image-name]
导入增量差异的镜像,并把它应用到当前的镜像。如果diff产生相对于一开始快照,我们确认,快照已经存在,然后再继续。如果有一个结束的快照,我们核实它不已经存在的应用更改之前,当我们完成创建快照。
diff [image-name] [-from-snap snapname]
转储字节扩展的镜像已经改变了,因为指定的起始快照或自创建映像的列表。每一条输出线包括起始偏移量(以字节为单位),该区域的长度(以字节为单位),无论是“零”或“数据”,以表示该区域是否是已知的零或可以含有其它的数据。
snap ls [image-name]
转储快照列表,里面有具体的镜像。
snap create[image-name]
创建一个新的快照。需要指定快照名称参数。
snap rollback[image-name]
回滚快照镜像内容。这将遍历的整个街区阵列和更新的数据头内容的快照版本。
snap rm [ image-name]
删除指定的快照。
snap purge [image-name]
从镜像中删除所有快照。
snap protect [image-name]
从删除保护的快照,使克隆可以用它制成的(见RBD克隆)。之前前克隆,快照,必须保护,保护意味着存在依赖克隆子类,是指本快照克隆RBD未受保护的快照将失败。这需要格式2。
snap unprotect [image-name]
撤消删除的快照(撤消单元保护)。如果克隆的子类,捕捉撤消失败。(注意克隆可能存在于不同的存储池,比母公司快照。)这需要格式2。
##############测试目的###########
1:创建快照;
2:快照写保护;
3:查看快照详细信息;
#############步骤1~5#############
1:创建image,为后续测试做准备;
[root@node243 t1image]# rbd create mypool/myimage5 --image-format 2 --size 10240
2:为image创建快照
[root@node243 myimage5]# rbd snap create mypool/myimage5@myimage5.snap1
3:查看快照信息;
[root@node243 myimage5]# rbd snap ls mypool/myimage5
SNAPID NAME SIZE
18 myimage5.snap1 10240 MB
[root@node243 myimage5]#
4:设置快照保护
[root@node243 myimage5]# rbd snap protect mypool/myimage5@myimage5.snap1
注意: 您无法删除受保护的快照。
5:查看快照详细信息,验证保护状态
[root@node243 ~]# rbd -p mypool info myimage5@myimage5.snap1
rbd image 'myimage5':
size 10240 MB in 2560 objects
order 22 (4096 kB objects)
block_name_prefix: rbd_data.5ebe2ae8944a
format: 2
features: layering
flags:
protected: True #状态
##############测试目的###########
1:快照克隆;
2:image信息夸pool克隆,功能验证;
3:clone数据验证;
#############步骤6~12#############
要克隆一个快照,指定您需要指定父类池,镜像和快照,子类池和镜像名称。你必须执行保护快照才可以克隆它。
6:将mypool/myimage5@myimage5.snap1 克隆到rbd 池 名字为 clone-myimage5
[root@node243 myimage5]# rbd clone mypool/myimage5@myimage5.snap1 rbd/clone-myimage5
7:验证镜像文件
[root@node243 myimage5]# rbd ls
foo
t1image
clone-myimage5
8:映射到一台主机
[root@node243 ~]# rbd map rbd/clone-myimage5
/dev/rbd2
9:建立挂载目录、挂载克隆镜像
[root@node243 ~]# mkdir /clone-myimage5
10:挂载报错是因为,本机已经挂载源镜像,被克隆的image 生成硬盘uuid 一样导致
[root@node243 ~]# mount /dev/rbd2 /clone-myimage5/mount: wrong fs type, bad option, bad superblock on /dev/rbd2, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so. /dev/sdb1: UUID="0b1a386a-e055-4b7a-8956-e13a638a4270" TYPE="xfs" PARTLABEL="ceph data" PARTUUID="bbb535a8-7c50-475b-9b7c-5def1790495f" 。。。。。。。。。。。。/dev/rbd1: UUID="f47bd41d-85e7-4da7-b90a-b31259fb2225" TYPE="xfs" /dev/rbd2: UUID="f47bd41d-85e7-4da7-b90a-b31259fb2225" TYPE="xfs" [root@node243 ~]#
11:卸载源imagemap信息,挂载clone生成image信息,对比数据;
查看源镜像挂载后,存储数据、然后umount
[root@node243 ~]# ll /myimage5/total 0-rw-r--r-- 1 root root 0 Oct 9 20:00 10.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 1.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 2.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 3.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 4.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 5.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 6.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 7.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 8.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 9.myimage.test.data.txt12:然后挂载克隆镜像,验证数据完全一致[root@node243 ~]# mount /dev/rbd2 /clone-myimage5/[root@node243 ~]# ll /clone-myimage5/total 0-rw-r--r-- 1 root root 0 Oct 9 20:00 10.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 1.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 2.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 3.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 4.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 5.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 6.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 7.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 8.myimage.test.data.txt-rw-r--r-- 1 root root 0 Oct 9 20:00 9.myimage.test.data.txt
##############测试目的###########
1:查看子类快照信息;
2:压缩克隆快照;
3:解除image保护;
4:导入image转换image格式;
5:锁定image;
#############步骤13~19#############
13:要列出一个子类快照,执行以下命令:
[root@node243 ~]# rbd children mypool/myimage5@myimage5.snap1
rbd/clone-myimage5
注意: 您可以复制镜像的从一个池到一个池的快照。例如,你可以以一个池作为模板,保持只读镜像和快照,在另一个池中克隆。
14:压缩克隆镜像
克隆映像保留父类快照的引用。当您删除从子类克隆父快照引用,有效“压缩化”的镜像从快照复制的克隆信息。压缩克隆所花费的时间增加快照大小。要删除快照,则必须先压缩子类镜像。
[root@node243 clone-myimage5]# rbd flatten rbd/clone-myimage5
Image flatten: 100% complete...done.
注意: 由于压缩的镜像中包含的所有信息的快照,一个压缩的镜像会比一个分层的克隆占用更多的存储空间。
15:解除保护快照
删除快照之前,您必须先解除保护的快照。此外,你可能不会删除克隆引用的快照。您必须删除每个克隆的快照,然后才能删除快照。
[root@node243 clone-myimage5]# rbd snap unprotect mypool/myimage5@myimage5.snap1
16:查看快照详细信息,验证保护状态
[root@node243 ~]# rbd -p mypool info myimage5@myimage5.snap1rbd image 'myimage5': size 10240 MB in 2560 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.5ebe2ae8944a format: 2 features: layering flags: protected: False
17:修改镜像格式
要更改为另一种格式的镜像,将其导出,然后导入所需的格式:
rbd export mypool/myimage@snap /tmp/img
rbd import --format 2 /tmp/img mypool/myimage2
18:锁定一个专用的镜像
rbd lock add mypool/myimage mylockid
19:释放锁:
rbd lock remove mypool/myimage mylockid client.2485
####################ok#################
####### pool copy ######
##############测试目的###########
1:测试pool copy的使用方法;
2:pool数据copy后数据对比;
3:pool数据copy后image快照查看;
#############步骤1~6#############
1:查看集群现有那几个pool
[root@node243 ~]# ceph df
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
474G 473G 1228M 0.25
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
rbd 4 92512k 0.02 157G 2589
mypool2 5 70976k 0.01 157G 94
testpool 6 159M 0.03 157G 2681
2:查看pool里面的image数量名称
[root@node243 ~]# rbd ls -p rbd
foo
t1image
clone-myimage5
[root@node243 ~]# rbd ls -p mypool
myimage
myimage1
myimage2
myimage5
myimage6
[root@node243 ~]# rbd ls -p testpool
foo1
t1image111
clone-myimage5111
[root@node243 ~]#
4:将mypool的内容copy到testpool
[root@node243 ~]# rados cppool mypool testpool
successfully copied pool mypool
5:查看testpool发现,testpool的内容被覆盖,内容和mypool内容保持一致
[root@node243 ~]# rbd ls -p testpool
myimage
myimage1
myimage2
myimage5
myimage6
[root@node243 ~]# rbd ls -p mypool
myimage
myimage1
myimage2
myimage5
myimage6
6:另外pool会将原有pool的image镜像也一块copy
[root@node243 ~]# rbd snap ls testpool/myimage5
SNAPID NAME SIZE
16 myimage1 10240 MB
17 myimage.snap1 10240 MB
18 myimage5.snap1 10240 MB
######## resize image (XFS 格式文件系统)########
##############测试目的###########
1:测试image resize的使用方法;
2:image 空间resize 后使用注意事项;
#############步骤1~6#############
1:查看已挂载rbd分区大小
[root@node245 ~]# df -Th
Filesystem Type Size Used Avail Use% Mounted on
...................
/dev/rbd0 xfs 20G 33M 20G 1% /myimage2
2:调整image大小
[root@node245 ~]# rbd resize -p mypool --image myimage2 --size 30000
Resizing image: 100% complete...done.
3:卸载分区重新挂载,发现分区空间大小没有变化
[root@node245 ~]# umount /myimage2/
[root@node245 ~]# mount /dev/rbd0 /myimage2/
4:查看分区大小
[root@node245 ~]# df -Th
。。。。。。。。。。。。。。。。。
/dev/rbd0 xfs 10G 36M 10G 1% /myimage2
[root@node245 ~]#
5:然后再次测试、unmap 镜像后从新挂载空间大小还是没有变化,说明调整空间后的镜像,要重新格式化才能是被新的空间。
rbd unmap /dev/rbd0
rbd showmapped
rbd map mypool/myimage2
rbd showmapped
mount /dev/rbd0 /myimage2/
df -Th
6:重新格式化后(注意数据备份),重新挂载,系统识别新增空间
mkfs.xfs -f /dev/rbd0
[root@node245 ~]# df -TH
...............
/dev/rbd0 xfs 22G 35M 22G 1% /myimage2
[root@node245 ~]#
######## resize image (ext4 格式文件系统)########
##############测试目的###########
1:测试image resize的使用方法;
2:image 空间resize 后使用注意事项;
3:ext4 文件系统热更新磁盘空间;
#############步骤1~5#############
1:查看现运行磁盘空间大小
[root@pttes mycephfs]# df -h /mnt/mycephfs/
Filesystem Size Used Avail Use% Mounted on
/dev/rbd1 976M 1.3M 908M 1% /mnt/mycephfs
2:执行resize操作
[root@pttes mycephfs]# rbd resize --size 2048 test-image --pool test-pool
Resizing image: 100% complete...done.
3:运行blockdev 工具允许从命令行调用区块设备控制程序。
[root@pttes mycephfs]# blockdev --getsize64 /dev/rbd1
2147483648
4:运行resize2fs程序会重新定义磁盘空间;
resize2fs程序会重新定义ext2或者是ext4文件系统。能够用于扩大或者缩小一个在设备上未挂载的文件系统。
如果这个文件系统是挂载的,它能够用于扩大挂载了的文件系统,假定内核支持在线重新定义大小。(linux的2.6内核支持使用ext3,ext4系统的在线重定义大小。)大小参数指定要求的文件系统的新大小。
如果单位没有指定,大小参数的单位会成为文件系统的文件系统的文件块尺寸。
[root@pttes mycephfs]# resize2fs /dev/rbd1
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/rbd1 is mounted on /mnt/mycephfs; on-line resizing required
old desc_blocks = 1, new_desc_blocks = 1
Performing an on-line resize of /dev/rbd1 to 524288 (4k) blocks.
The filesystem on /dev/rbd1 is now 524288 blocks long.
5:查看磁盘空间
[root@pttes mycephfs]# df -h /mnt/mycephfs/
Filesystem Size Used Avail Use% Mounted on
/dev/rbd1 2.0G 1.6M 1.9G 1% /mnt/mycephfs
############使用rados 命令创建快照###############
1:为rbd pool创建快照
[root@node243 ~]# rados -p testpool mksnap rbdsnaprados
created pool testpool snap rbdsnaprados
2:列出给定池的快照,验证查看生成snap
[root@node243 ~]# rados -p testpool lssnap
1 testpoolsnap1 2015.10.10 12:40:53
2 testpool.snap1 2015.10.10 12:47:33
3 testpool3 2015.10.10 14:07:47
4 rbdsnaprados 2015.10.10 15:41:53
4 snaps
3:删除快照
[root@node243 ~]# rados -p testpool rmsnap testpool3
removed pool testpool snap testpool3
#################ok#################
后续深入研究调研
1:image空间的动态调整;
2:修改导入image活着clone生成硬盘UUID如何修改;
3:增量快照的详细使用方式;
4:clone快照的压缩特性,使用场景等;
3:pool快照如何恢复,有何特性;
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~