第七周作业
1、破坏mbr表并修复;
1.1,备份分区表,查看备份文件是否正确,破坏分区表,将备份文件拷到另外的机器上去;
[root@explore ~]#dd if=/dev/sda of=/data/sda_partbak.img count=64 bs=1 skip=446 #备份
[root@explore ~]# hexdump -C /data/sda_partbak.img #检查
[root@explore ~]#scp /data/sda_partbak.img root@192.168.72.128:/root/129_part_bak.img #备份
[root@explore ~]#dd if=/dev/zero of=/dev/sda count=64 bs=1 seek=446 #破坏
1.2,重启后如图所示

1.2,插入光盘后再次重启,选择光盘进入救援模式

1.3,将备份文件拷贝到救援模式的机器或者配置好网络后用scp,这里使用后者;

1.3.1,在救援模式下使用nmcli配置ip地址,注意配置在能与备份了分区表的机器能通的网卡上
[root@exploere2 ~]#nmcli connection modify ens35 ipv4.method manual ipv4.addresses 192.168.128.8/24 ipv4.gateway 192.168.128.2
[root@exploere2 ~]# nmcli reload
[root@exploere2 ~]# nmcli con up ens35
1.3.2,将该文件scp过来

1.4,使用dd命令将还原分区表,sync同步一下,重启

1.5,还原成功

2、总结RAID的各个级别及其组合方式和性能的不同。
RAID0
也称为条带化存储,以连续或字节为单位进行数据分割,将数据分段存储在各个硬盘中;
优点:并行读/写数据,具有很高的数据传输率;
缺点:但没有数据冗余,单个磁盘的损坏将影响所有数据。RAID 0不能应用于数据安全性要求高的场合。

RAID1
称为镜像存储;
优点:通过磁盘数据镜像实现数据冗余,原理是在成堆的独立的磁盘上产生互为备份的数据;当原始数据繁忙时,可以直接镜像拷贝读取数据,因此读取性能比较快;
缺点:因为数据被同等地写入成对的磁盘中,所以性能比较慢。

RAIND4:与下列raid5类似,只是奇偶校验信息固定存储在同一个位置,
RAIND5
RAID5是一种存储性能、数据安全与存储成本兼顾的存储解决方案。
评价:RAID 5具有和RAID 0相近似的数据读取速度,只是多了一个随机存储的奇偶校验信息,写入数据的速度比对单个磁盘进行写入操作稍慢。
同时由于多个数据对应一个奇偶校验信息,RAID 5的磁盘空间利用率要比RAID 1高,存储成本相对较低且能允许一块磁盘损坏,是目前运用较多的一种解决方案。
RAID6:与上列raid5类似,只是奇偶校验信息随机存储两份,比raid5冗余更高一点,付出的成本也更高一些;
RAID10
RAID1+0顾名思义是RAID1和RAID0的结合,先做镜像(1),再做条带(0),兼顾了raid1的容错能力与raid0的条带化读写数据的优点,性能好、可靠性高。属于混合型RAID。
RAID1+0两边的RAID1中可以同时各坏一块硬盘,但不能同时坏掉单边的两个硬盘。
如图:可以坏掉disk0和disk2或者disk1和disk3;但是不能同时坏掉disk0,disk1;或是disk2,disk3;

RAID01
RAID0+1顾名思义是RAID0和RAID1的结合,先做条带(0)再做镜像(1),再,兼顾了raid0的条带化读写数据的优点与raid1的容错能力,性能好、可靠性高。属于混合型RAID。
RAID0+1两边的RAID1中可以同时各坏一组硬盘,但不能同时坏掉两边的各一个硬盘。
如图:可以坏掉disk0和disk1或者disk2和disk3;但是不能同时坏掉disk0,disk2;或是disk1,disk3;

RAID 50
先使用raid5 在使用raid0

JBOD
将多块磁盘结合为一块

3、创建一个2G的文件系统,块大小为2048byte,预留1%可用空间,文件系统 ext4,卷标为TEST,要求此分区开机后自动挂载至/test目录,且默认有acl挂载选项
3.1,使用fdisk -l查看分区信息,我这里用sdd创建2g的主分区
[root@route1 ~]# fdisk -l
Disk /dev/sdd: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x1fd5d16b
[root@route1 ~]# echo -e 'n\np\n\n\n+2G\nt\n83\nw\nY\n' | fdisk /dev/sdd
3.2,创建好后同步分区
[root@route1 ~]# partprobe #使用于centos6以上版本
3.3,格式化:块大小为2048byte,预留1%可用空间,文件系统 ext4,卷标为TEST
[root@route1 ~]# mkfs.ext4 -L TEST -m 1 /dev/sdd1
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=TEST
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
131072 inodes, 524288 blocks
5242 blocks (1.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=536870912
16 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912
Allocating group tables: done
Writing inode tables: done
Creating journal (16384 blocks): done
Writing superblocks and filesystem accounting information: done
3.3, 要求此分区开机后自动挂载至/test目录,且默认有acl挂载选项
[root@route1 ~]# blkid /dev/sdd1
/dev/sdd1: LABEL="TEST" UUID="0a9b6390-73ed-44da-b533-7497ee2e1a79" TYPE="ext4"
[root@route1 ~]# vim /etc/fstab
UUID=0a9b6390-73ed-44da-b533-7497ee2e1a79 /test ext4 defaults,acl 0 0
[root@route1 ~]# mount -a
4、创建一个至少有两个PV组成的大小为20G的名为testvg的VG;要求PE大小 为16MB, 而后在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录
4.1,创建两块硬盘分区,注意将类型改为lvm(8e)
Device Boot Start End Sectors Size Id Type
/dev/sdb1 2048 20973567 20971520 10G 8e Linux LVM
/dev/sdb2 20973568 41943039 20969472 10G 8e Linux LVM
4.2,创建pv和vg
[root@localhost ~]# pvcreate /dev/sdb1 /dev/sdb2
Physical volume "/dev/sdb1" successfully created.
Physical volume "/dev/sdb2" successfully created.
[root@localhost ~]# vgcreate testvg -s 16M /dev/sdb{1,2}
Volume group "testvg" successfully created
#查看
[root@localhost ~]# vgdisplay
--- Volume group ---
VG Name testvg
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size <19.97 GiB
PE Size 16.00 MiB
Total PE 1278
Alloc PE / Size 0 / 0
Free PE / Size 1278 / <19.97 GiB
VG UUID 7h1tsT-pb5b-FpVN-J7jg-w6pO-biC3-cOaaoO
4.3,在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录
[root@localhost ~]# lvcreate -L +5G -n testlv testvg
Logical volume "testlv" created.
[root@localhost ~]# lvdisplay
--- Logical volume ---
LV Path /dev/testvg/testlv
LV Name testlv
VG Name testvg
LV UUID V4gp5k-Zupp-eLJd-0PP5-F3rn-XJiR-a7795O
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2021-03-29 00:35:18 +0800
LV Status available
# open 0
LV Size 5.00 GiB
Current LE 320
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:0
#挂载
[root@localhost ~]# mkfs.xfs /dev/testvg/testlv
meta-data=/dev/testvg/testlv isize=512 agcount=4, agsize=327680 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=1, sparse=1, rmapbt=0
= reflink=1
data = bsize=4096 blocks=1310720, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0, ftype=1
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@localhost ~]# mount /dev/testvg/testlv /user
[root@localhost ~]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 888M 0 888M 0% /dev
tmpfs 904M 0 904M 0% /dev/shm
tmpfs 904M 8.7M 895M 1% /run
tmpfs 904M 0 904M 0% /sys/fs/cgroup
/dev/sda3 17G 1.6G 16G 9% /
/dev/sda1 976M 128M 781M 15% /boot
tmpfs 181M 0 181M 0% /run/user/0
/dev/mapper/testvg-testlv 5.0G 68M 5.0G 2% /user

浙公网安备 33010602011771号