第七周作业

1、破坏mbr表并修复;
1.1,备份分区表,查看备份文件是否正确,破坏分区表,将备份文件拷到另外的机器上去;

[root@explore ~]#dd if=/dev/sda of=/data/sda_partbak.img count=64 bs=1 skip=446 #备份
[root@explore ~]# hexdump -C /data/sda_partbak.img #检查
[root@explore ~]#scp /data/sda_partbak.img root@192.168.72.128:/root/129_part_bak.img #备份
[root@explore ~]#dd if=/dev/zero of=/dev/sda count=64 bs=1 seek=446 #破坏

1.2,重启后如图所示

1.2,插入光盘后再次重启,选择光盘进入救援模式

1.3,将备份文件拷贝到救援模式的机器或者配置好网络后用scp,这里使用后者;

1.3.1,在救援模式下使用nmcli配置ip地址,注意配置在能与备份了分区表的机器能通的网卡上

[root@exploere2 ~]#nmcli connection modify ens35 ipv4.method manual ipv4.addresses 192.168.128.8/24 ipv4.gateway 192.168.128.2 
[root@exploere2 ~]# nmcli reload
[root@exploere2 ~]# nmcli con up ens35

1.3.2,将该文件scp过来

1.4,使用dd命令将还原分区表,sync同步一下,重启

1.5,还原成功

2、总结RAID的各个级别及其组合方式和性能的不同。

RAID0

也称为条带化存储,以连续或字节为单位进行数据分割,将数据分段存储在各个硬盘中;
优点:并行读/写数据,具有很高的数据传输率;
缺点:但没有数据冗余,单个磁盘的损坏将影响所有数据。RAID 0不能应用于数据安全性要求高的场合。

RAID1

​称为镜像存储;
优点:通过磁盘数据镜像实现数据冗余,原理是在成堆的独立的磁盘上产生互为备份的数据;当原始数据繁忙时,可以直接镜像拷贝读取数据,因此读取性能比较快;
缺点:因为数据被同等地写入成对的磁盘中,所以性能比较慢。


RAIND4:与下列raid5类似,只是奇偶校验信息固定存储在同一个位置,
RAIND5

RAID5是一种存储性能、数据安全与存储成本兼顾的存储解决方案。
评价:RAID 5具有和RAID 0相近似的数据读取速度,只是多了一个随机存储的奇偶校验信息,写入数据的速度比对单个磁盘进行写入操作稍慢。
同时由于多个数据对应一个奇偶校验信息,RAID 5的磁盘空间利用率要比RAID 1高,存储成本相对较低且能允许一块磁盘损坏,是目前运用较多的一种解决方案。

RAID6:与上列raid5类似,只是奇偶校验信息随机存储两份,比raid5冗余更高一点,付出的成本也更高一些;

RAID10
RAID1+0顾名思义是RAID1和RAID0的结合,先做镜像(1),再做条带(0),兼顾了raid1的容错能力与raid0的条带化读写数据的优点,性能好、可靠性高。属于混合型RAID。
RAID1+0两边的RAID1中可以同时各坏一块硬盘,但不能同时坏掉单边的两个硬盘。
如图:可以坏掉disk0和disk2或者disk1和disk3;但是不能同时坏掉disk0,disk1;或是disk2,disk3;

RAID01

RAID0+1顾名思义是RAID0和RAID1的结合,先做条带(0)再做镜像(1),再,兼顾了raid0的条带化读写数据的优点与raid1的容错能力,性能好、可靠性高。属于混合型RAID。
RAID0+1两边的RAID1中可以同时各坏一组硬盘,但不能同时坏掉两边的各一个硬盘。

如图:可以坏掉disk0和disk1或者disk2和disk3;但是不能同时坏掉disk0,disk2;或是disk1,disk3;

RAID 50
先使用raid5 在使用raid0

JBOD
将多块磁盘结合为一块

3、创建一个2G的文件系统,块大小为2048byte,预留1%可用空间,文件系统 ext4,卷标为TEST,要求此分区开机后自动挂载至/test目录,且默认有acl挂载选项
3.1,使用fdisk -l查看分区信息,我这里用sdd创建2g的主分区

[root@route1 ~]# fdisk -l
Disk /dev/sdd: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x1fd5d16b
[root@route1 ~]# echo -e 'n\np\n\n\n+2G\nt\n83\nw\nY\n' | fdisk /dev/sdd

3.2,创建好后同步分区

[root@route1 ~]# partprobe #使用于centos6以上版本

3.3,格式化:块大小为2048byte,预留1%可用空间,文件系统 ext4,卷标为TEST

[root@route1 ~]# mkfs.ext4 -L TEST -m 1 /dev/sdd1 
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=TEST
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
131072 inodes, 524288 blocks
5242 blocks (1.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=536870912
16 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (16384 blocks): done
Writing superblocks and filesystem accounting information: done 

3.3, 要求此分区开机后自动挂载至/test目录,且默认有acl挂载选项

[root@route1 ~]# blkid /dev/sdd1
/dev/sdd1: LABEL="TEST" UUID="0a9b6390-73ed-44da-b533-7497ee2e1a79" TYPE="ext4" 
[root@route1 ~]# vim /etc/fstab
UUID=0a9b6390-73ed-44da-b533-7497ee2e1a79 /test                 ext4     defaults,acl        0 0 
[root@route1 ~]# mount -a

4、创建一个至少有两个PV组成的大小为20G的名为testvg的VG;要求PE大小 为16MB, 而后在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录
4.1,创建两块硬盘分区,注意将类型改为lvm(8e)

Device     Boot    Start      End  Sectors Size Id Type
/dev/sdb1           2048 20973567 20971520  10G 8e Linux LVM
/dev/sdb2       20973568 41943039 20969472  10G 8e Linux LVM

4.2,创建pv和vg

[root@localhost ~]# pvcreate /dev/sdb1 /dev/sdb2 
  Physical volume "/dev/sdb1" successfully created.
  Physical volume "/dev/sdb2" successfully created.
[root@localhost ~]# vgcreate testvg -s 16M /dev/sdb{1,2}
  Volume group "testvg" successfully created
#查看
[root@localhost ~]# vgdisplay 
  --- Volume group ---
  VG Name               testvg
  System ID             
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               <19.97 GiB
  PE Size               16.00 MiB
  Total PE              1278
  Alloc PE / Size       0 / 0   
  Free  PE / Size       1278 / <19.97 GiB
  VG UUID               7h1tsT-pb5b-FpVN-J7jg-w6pO-biC3-cOaaoO     

4.3,在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录

[root@localhost ~]# lvcreate -L +5G -n testlv testvg 
  Logical volume "testlv" created.
[root@localhost ~]# lvdisplay 
  --- Logical volume ---
  LV Path                /dev/testvg/testlv
  LV Name                testlv
  VG Name                testvg
  LV UUID                V4gp5k-Zupp-eLJd-0PP5-F3rn-XJiR-a7795O
  LV Write Access        read/write
  LV Creation host, time localhost.localdomain, 2021-03-29 00:35:18 +0800
  LV Status              available
  # open                 0
  LV Size                5.00 GiB
  Current LE             320
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0
 #挂载
[root@localhost ~]# mkfs.xfs /dev/testvg/testlv 
meta-data=/dev/testvg/testlv     isize=512    agcount=4, agsize=327680 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1
data     =                       bsize=4096   blocks=1310720, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost ~]# mount /dev/testvg/testlv /user
[root@localhost ~]# df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   888M     0  888M   0% /dev
tmpfs                      904M     0  904M   0% /dev/shm
tmpfs                      904M  8.7M  895M   1% /run
tmpfs                      904M     0  904M   0% /sys/fs/cgroup
/dev/sda3                   17G  1.6G   16G   9% /
/dev/sda1                  976M  128M  781M  15% /boot
tmpfs                      181M     0  181M   0% /run/user/0
/dev/mapper/testvg-testlv  5.0G   68M  5.0G   2% /user

posted @ 2021-03-29 00:49  recvfrom  阅读(72)  评论(0)    收藏  举报