新建了一个文件,那部分是物理文件还是逻辑地址和物理地址文件

> 问题详情
文件的存取方法依赖于(6)。文件的存储管理实际上是对(7)的管理。文件系统在创建一个文件时,为它建
悬赏:0&答案豆
提问人:匿名网友
发布时间:
文件的存取方法依赖于(6)。文件的存储管理实际上是对(7)的管理。文件系统在创建一个文件时,为它建立一个(8)。如果文件系统中存在两个文件重名,则不应采用(9)。按照记录存入文件的先后次序排序并查找,排列顺序与记录的内容无关,这是指(10)。A.文件的物理结构B.存放文件的存储设备的特性C.A和BD.文件的逻辑结构请帮忙给出正确答案和分析,谢谢!
权威推荐: & &
您可能感兴趣的试题
1(37)A.内存空间B.外部存储空间C.逻辑存储空间D.物理存储空间2(38)A.文件目录B.目录文件C.逻辑结构D.逻辑空间
我有更好的答案
论文写作技巧
相关考试课程
请先输入下方的验证码查看最佳答案
图形验证:
验证码提交中……逻辑卷和文件系统之间的逻辑关系的示意图
时间: 17:03:27
实题 院 专 班 姓 学 目:验报告项目三、Linux 文件系统与磁盘管理计算机系系:软件工程业:2010 级?班级:??名:2010????号:何东彬指导教师: 指导教师:日&&&&实训项目 3-1一、实训目的Linux 文件系统与磁盘管理● 掌握 Linux 下文件系统的创建、挂载与卸载。 ● 掌握文件系统的自动挂载。二、项目背景某企业的 Linux 服务器中新增了一块硬盘/dev/sdb, 请使用 fdisk 命令新建/dev/sdb1 主分 区和/dev/sdb2 扩展分区,并在扩展分区中新建逻辑分区/dev/sdb5,并使用 mkfs 命令分别创 建 vfat 和 ext3 文件系统。然后用 fsck 命令检查这两个文件系统;最后,把这两个文件系统 挂载到系统上。三、实训内容 实训内容练习 Linux 系统下文件系统的创建、挂载与卸载及自动挂载的实现。四、实训步骤 子项目 1.创建/dev/sdb1 和/dev/sdb5●首先查看磁盘情况,使用 fdisk 命令 # fdisk -l Disk /dev/sda: 21.5 GB,
bytes 255 heads, 63 sectors/track, 2610 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00001a36 Device Boot Start End /dev/sda1 * 1 26 Partition 1 does not end on cylinder boundary. /dev/sda2 26 154 Partition 2 does not end on cylinder boundary. /dev/sda3 154 2611 Blocks Id System
Linux swap / Solaris LinuxDisk /dev/sdb: 10.7 GB,
bytes 255 heads, 63 sectors/track, 1305 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x&&&&Device BootStartEndBlocksIdSystemDisk /dev/sdc: 10.7 GB,
bytes 255 heads, 63 sectors/track, 1305 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x Device Boot Start End Blocks Id SystemDisk /dev/sdd: 10.7 GB,
bytes 255 heads, 63 sectors/track, 1305 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x000d37fe Device Boot Start End Blocks Id System●使用 fdisk 命令创建/dev/sdb1 主分区。● 使用 fdisk 命令创建/dev/sdb2 扩展分区。&&&&● 使用 fdisk 命令创建/dev/sdb5 逻辑分区。 Command (m for help): n (输入 n) ) Command action l logical (5 or over) p primary partition (1-4) l (输入 1) ) First cylinder (51-1305, default 51): 直接回车, (直接回车,默认 51) ) Using default value 51 Last cylinder, +cylinders or +size{K,M,G} (51-1305, default 1305): 130 (输入 130) ) Command (m for help): p Disk /dev/sdb: 10.7 GB,
bytes 255 heads, 63 sectors/track, 1305 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x Device Boot /dev/sdb1 /dev/sdb2 /dev/sdb5 Start 1 51 51 End 50
Blocks Id System
Linux (输入 p) )&&&&Command (m for help): w (输入 w 输入子命令 w,把设置写入硬盘分区表) ,把设置写入硬盘分区表) The partition table has been altered! Calling ioctl() to re-read partition table. Syncing disks. ● 退出 fdisk 并重新启动系统。 ● 用 mkfs 命令在上述刚刚创建的分区上创建 ext3 文件系统和 vfat 文件系统。 # mkfs -t ext4 /dev/sdb1 # mkfs.vfat /dev/sdb5 ● 用 fsck 命令检查上面创建的文件系统。 # fsck /dev/sdb1 fsck from util-linux-ng 2.17.2 e2fsck 1.41.12 (17-May-2010) /dev/sdb1: clean, 11/100744 files,
blocks # fsck /dev/sdb5子项目 2.挂载/dev/sdb1 和/dev/sdb5● 利用 mkdir 命令,在/mnt 目录下建立挂载点,mountpoint1 和 mountpoint2。 # mkdir /mnt/mountpoint1 /mnt/mountpoint2 ● 把上述新创建的 ext4 分区挂载到/mnt/mountpoint1 上。 #mount -t ext4 /dev/sdb1 /mnt/mountpoint1 ● 把上述新创建的 vfat 分区挂载到/mnt/mountpoint2 上。 # mount -t vfat /dev/sdb5 /mnt/mountpoint2 ● 利用 mount 命令列出挂载到系统上的分区,查看挂载是否成功。 # mount /dev/sda3 on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) tmpfs on /dev/shm type tmpfs (rw,rootcontext=&system_u:object_r:tmpfs_t:s0&) /dev/sda1 on /boot type ext4 (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) vmware-vmblock on /var/run/vmblock-fuse type fuse.vmware-vmblock (rw,nosuid,nodev,default_permissions,allow_other) sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)&&&&gvfs-fuse-daemon on /root/.gvfs type fuse.gvfs-fuse-daemon (rw,nosuid,nodev) /dev/sdb1 on /mnt/mountpoint1 type ext4 (rw) /dev/sdb5 on /mnt/mountpoint2 type vfat (rw) ● 利用 umount 命令卸载上面的两个分区。 # umount /mnt/mountpoint1 # umount /mnt/mountpoint2子项目 3.实现/dev/sdb1 和/dev/sdb5 的自动挂载● 编辑系统文件/etc/fstab 文件,把上面两个分区加入此文件中。 # vim /etc/fstab● 重新启动系统,显示已经挂载到系统上的分区,检查设置是否成功。 或者 使用 mount –a 重新读取/etc/fstab 文件,并 mount,然后使用如下命令: # mount 检查是否能够自动挂载。子项目 4.挂载光盘和 U 盘● 取一张光盘放入光驱中,将光盘挂载到/mnt/cdrom 目录下。查看光盘中的文件。 #mkdir /mnt/cdrom # mount /dev/cdrom /mnt/cdrom需要注意的是:如果使用虚拟机,一定要看清楚当前光驱是否连接(通电启动) 。 ● 利用与上述相似的命令完成 U 盘的挂载与卸载。 先使用 fdisk –l 查出该 U 盘设备的名称,例如为/dev/sde1(如下) #fdisk -l …… /dev/sde1 * 1 2 c W95 FAT32 (LBA) # mount -t vfat /dev/sde1 /mnt/flash -o utf8&&&&实训项目 3-2 创建磁盘阵列 mdadm一、实训目的● 掌握利用 mdadm 创建磁盘阵列的方法。二、项目背景某企业在 Linux 服务器中新增了四块硬盘/dev/sdc,/dev/sdd,/dev/sde,/dev/sdf 要求建 立一个 RAID5 磁盘阵列,3 块磁盘+1 块热备盘。在 RAID 上建立 ext4 文件系统,并能自动 挂载! 。二、实训内容 实训内容磁盘阵列的建立,测试与管理。四、实训步骤以创建 RAID5 为例 当前存在 4 块 10G 的硬盘 sdc,sdd,sde,sdf 先用三块(sdc,sdd,sde)来做 RAID-5,这是做 RAID-5 最少的磁盘数量,为了安全,通常都 需要加上一块热备磁盘(sdf) ,以用来替换出故障的磁盘。 注意:用分区来做 RAID 也可以,不过这样不太科学。子项目 1.创建磁盘阵列# mdadm –C /dev/md5 -l5 -n3 -x1 /dev/sd[cdef] mdadm: partition table exists on /dev/sdc but will be lost or meaningless after creating array mdadm: partition table exists on /dev/sdd but will be lost or meaningless after creating array Continue creating array? y #输入 y 输入 mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md5 started. 命令参数的解释: -C 创建一个新的 Array -v --verbose,显示详情 -l 指明 RAID 级别 -n 磁盘数量 -x 热备磁盘数量 以上命令创建了 raid5 级别的 3 块盘 1 块热备磁盘的 md5。 RAID 设备文件创建成功后,会在/dev 下创建 md 目录和和 md5 设备文件,并且在/dev/md/ 目录下创建了 md-device-map 文件。 # ll /dev/md* brw-rw----. 1 root disk 9, 5 Mar 10 22:35 /dev/md5&&&&/dev/md: total 4 -rw-------. 1 root root 53 Mar 10 22:35 md-device-map 查看一下 RAID 设备的情况 # mdadm -D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Sat Mar 10 22:35:20 2012 Raid Level : raid5 Array Size : .00 GiB 21.47 GB) Used Dev Size : .00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sat Mar 10 22:38:52 2012 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Name : hlinux6:5 (local to host hlinux6) UUID : fb857e32:42ec303c:b164187b:ef04a069 Events : 18 Number 0 1 4 3 Major 8 8 8 8 Minor 32 48 64 80 RaidDevice State 0 active sync 1 active sync 2 active sync spare/dev/sdc /dev/sdd /dev/sde/dev/sdf子项目 2.对 RAID 设备创建文件系统、分区、挂载创建好的 RAID 设备可以当做普通磁盘一样进行分区,使用命令 fdisk /dev/md5 就可以了, 这里不在阐述。 RAID 设备创建好后,要对它进行“格式化” (准确的说法是创建文件系统,linux 下没有格 式化这个说法) # mkfs.ext4 /dev/md5&&&&mke2fs 1.41.12 (17-May-2010) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=128 blocks, Stripe width=256 blocks 1310720 inodes, 5242112 blocks 262105 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=0 160 block groups 32768 blocks per group, 32768 fragments per group 8192 inodes per group Superblock backups stored on blocks: 3, , 2, 96000 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 29 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override.挂载并使用 # mkdir /mnt/md # mount /dev/md5 /mnt/md [root@hlinux6 Desktop]# mount | grep md5 /dev/md5 on /mnt/md type ext4 (rw) # touch /mnt/md/file{1,2,3} # ls /mnt/md file1 file2 file3 lost+found 为了下次开机还能正常使用我们的 RAID 设备,我们还需要做以下事情: (1)首先查看一下 mdadm.conf 文件的内容 ) # cat /etc/mdadm.conf # mdadm.conf written out by anaconda MAILADDR root AUTO +imsm +1.x -all /etc/mdadm.conf 文件中里面已经有了一些内容,但没有新生成的这个 RAID 的相关信息,所 以我们要把 RAID 的相关信息写入此文件中,否则在下次开机 RAID 设备就不起作用了。 设备信息 信息写入 (2)将新生成的 RAID 设备信息写入 mdadm.conf 文件中 )&&&&[root@hlinux6 Desktop]# mdadm -Ds && /etc/mdadm.conf [root@hlinux6 Desktop]# cat /etc/mdadm.conf # mdadm.conf written out by anaconda MAILADDR root AUTO +imsm +1.x -all ARRAY /dev/md5 metadata=1.2 spares=1 name=hlinux6:5 UUID=fb857e32:42ec303c:b164187b:ef04a069 注意,如果系统中有多个 RAID 的话,此命令会把系统中所有的 RAID 信息全部收集并写入 此文件。所以,当用&&来追加内容的时候,你可能需要根据情况来修改。 (3)最后,我们还要把挂载的信息写入 fstab )最后, # vim /etc/fstab 加入下面的内容 /dev/md5 /mnt/md # mount -aext4defaults00使用命令查看是否成功: #df # cat /proc/mdstat #mdadm -D /dev/md5 上面三个命令都可以观察生成的这个 md5 在/mnt/md 目录下 cat 个文件出来,然后重启! # cat & /mnt/md/file4 hello! ^C 最后需要重新启动系统测试看是否成功!看看这个文件是否还在,内容没有变化!子项目 3.对 RAID 设备进行测试下面来看看,出错后将会怎样? 下面来看看,出错后将会怎样? # mdadm –f /dev/md5 /dev/sdcmdadm: set /dev/sdc faulty in /dev/md5 马上查看磁盘阵列将/dev/sdc 标记为已损坏的设备# mdadm–D/dev/md5/dev/md5: Version : 1.2 Creation Time : Sun Mar 11 09:20:29 2012 Raid Level : raid5 Array Size : .00 GiB 21.47 GB) Used Dev Size : .00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 4&&&&Persistence : Superblock is persistent Update Time : Sun Mar 11 09:25:51 2012 State : clean, degraded, recovering Active Devices : 2 Working Devices : 3 Failed Devices : 1 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Rebuild Status : 1% complete Name : hlinux6:5 (local to host hlinux6) UUID : edbc2:2a72797f:ce95c5ff Events : 24 Number 3 1 4 Major 8 8 8 Minor 80 48 64 RaidDevice State 0 spare rebuilding /dev/sdf 1 active sync /dev/sdd 2 active sync /dev/sde0 8 32 faulty spare /dev/sdc 可以看到,可以看到/dev/sdc 的状态是 faulty spare(出错的热备)。当 RAID 设备里面有磁盘 出现故障,热备磁盘会马上自动替换故障盘。/dev/sdf 已经替换掉/dev/sdc,并且 RAID 设备 的性能会明显下降,因为热备盘要进行数据检验与恢复,如上文所示,进度是 1%。将该故障盘移除出磁盘阵列 # mdadm /dev/md5 -r /dev/sdc mdadm: hot removed /dev/sdc from /dev/md5 查看文件 file4 的内容,仍然没有变化! #cat /mnt/md/file4 hello!下面再继续将/dev/sdd 设置为故障盘,然后以同样方法来查看磁盘阵列情况 # mdadm -f /dev/md5 /dev/sdd mdadm: set /dev/sdd faulty in /dev/md5 [root@hlinux6 Desktop]# mdadm -D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Sun Mar 11 20:44:19 2012 Raid Level : raid5&&&&Array Size : .00 GiB 21.47 GB) Used Dev Size : .00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sun Mar 11 20:55:48 2012 State : clean, degraded Active Devices : 2 Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : hlinux6:5 (local to host hlinux6) UUID : bf1f8a7c:5c4b53bf:ef563b16:a68ac963 Events : 49 Number 3 1 4 Major 8 0 8 Minor 80 0 64 RaidDevice State 0 active sync 1 removed 2 active sync/dev/sdf /dev/sde /dev/sdd1 8 48 faulty spare 查看磁盘阵列中的文件,是否完好,没有问题 # cat /mnt/md/file4 hello! 下面将/dev/sdd 从磁盘阵列中移除。 # mdadm -r /dev/md5 /dev/sdd mdadm: hot removed /dev/sdd from /dev/md5子项目 4.阵列中添加新硬盘将/dev/sdc 重新添加进入磁盘阵列,然后查看磁盘阵列的情况 # mdadm -a /dev/md5 /dev/sdc mdadm: re-added /dev/sdc [root@hlinux6 Desktop]# mdadm -D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Sun Mar 11 20:44:19 2012 Raid Level : raid5 Array Size : .00 GiB 21.47 GB)&&&&Used Dev Size : .00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sun Mar 11 21:04:27 2012 State : clean, degraded, recovering Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Rebuild Status : 6% complete Name : hlinux6:5 (local to host hlinux6) UUID : bf1f8a7c:5c4b53bf:ef563b16:a68ac963 Events : 57 Number 3 0 4 Major 8 8 8 Minor 80 32 64 RaidDevice State 0 active sync /dev/sdf 1 spare rebuilding /dev/sdc 2 active sync /dev/sde从上我们看到,/dev/sdc 又添加如阵列中,作为活动盘,并且重新 rebuilding 以进行同步。 下面再添加一块磁盘/dev/sdd ,然后再查看磁盘阵列 # mdadm -a /dev/md5 /dev/sdd mdadm: re-added /dev/sdd # mdadm –D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Sun Mar 11 20:44:19 2012 Raid Level : raid5 Array Size : .00 GiB 21.47 GB) Used Dev Size : .00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sun Mar 11 21:09:10 2012 State : clean Active Devices : 3&&&&Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Name : hlinux6:5 (local to host hlinux6) UUID : bf1f8a7c:5c4b53bf:ef563b16:a68ac963 Events : 78 Number 3 0 4 1 Major 8 8 8 8 Minor 80 32 64 48 RaidDevice State 0 active sync 1 active sync 2 active sync spare/dev/sdf /dev/sdc /dev/sde/dev/sdd新的热备盘/dev/sdd 已经被添加到 RAID-5 设备里面。子项目 5. 增加 RAID 设备存储空间当设备的存储空间不足时,需要添加硬盘以增加 RAID 设备的存储空间。 注意:使用 mdadm –a 添加新硬盘后,新添加的硬盘会被当做热备盘使用。 我们先来尝试一下添加硬盘,我把/dev/sdg 添加进去/dev/md5 # mdadm –a /dev/md5 /dev/sdg mdadm: added /dev/sdg # mdadm -D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Sun Mar 11 20:44:19 2012 Raid Level : raid5 Array Size : .00 GiB 21.47 GB) Used Dev Size : .00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 5 Persistence : Superblock is persistent Update Time : Sun Mar 11 21:13:47 2012 State : clean Active Devices : 3 Working Devices : 5 Failed Devices : 0&&&&Spare Devices : 2 Layout : left-symmetric Chunk Size : 512K Name : hlinux6:5 (local to host hlinux6) UUID : bf1f8a7c:5c4b53bf:ef563b16:a68ac963 Events : 79 Number 3 0 4 1 5 Major 8 8 8 8 8 Minor 80 32 64 48 96 RaidDevice State 0 active sync 1 active sync 2 active sync spare spare/dev/sdf /dev/sdc /dev/sde/dev/sdd /dev/sdg从上面的结果中我们发现,硬盘/dev/sdg 果然被当做热备盘使用。怎样才能让热备盘起存储 作用呢?需要进行以下操作。 # mdadm -G -n4 /dev/md5 mdadm: Need to backup 3072K of critical section.. 增加新磁盘后, RAID 设备信息不会马上显示新的设备容量, 所以我们要更新一下文件系统。 当刚刚增加了磁盘作为阵列的活动盘,不能立刻使用 resize2fs 命令更改磁盘阵列的容量, 使用 dmadm –D /dev/md5 会发现,其中一项提示 Reshape Status : 33% complete,此时使用 df 命令查看 md5 的磁盘空间,如下(仍是 20G) # df /dev/md5 Filesystem 1K-blocks Used Available Use% Mounted on /dev/md5 068 % /mnt/md 等待一段时间后, 使用 dmadm –D /dev/md5 查看, 发现 Reshape Status 选项消失, 说明 100% 完成。此时使用 resize2fs 命令修改磁盘阵列容量,如下: # resize2fs /dev/md5 resize2fs 1.41.12 (17-May-2010) Filesystem at /dev/md5 is mounted on /mnt/ on-line resizing required old desc_blocks = 2, new_desc_blocks = 2 Performing an on-line resize of /dev/md5 to k) blocks. The filesystem on /dev/md5 is now 7863168 blocks long. # df /dev/md5 Filesystem 1K-blocks Used Available Use% Mounted on /dev/md5 068 % /mnt/md&&&&再看下/mnt/md5 里面的数据在我们执行扩容的过程中是否遭到损坏, 查看文件 file4 的内容, 仍然没有变化! #cat /mnt/md/file4 hello!子项目 6. RAID 设备的删除1、 umount 卸载 RAID 设备 # umount /dev/md5 2、 停止 RAID 设备 #mdadm –S /dev/md5 mdadm: stopped /dev/md5 这里顺便说明一下设备停止后如何开启, # mdadm -A -s /dev/md5 mdadm: /dev/md5 has been started with 4 drives and 1 spare. 3、 在停止前,你要用再查看一下 RAID 里面的硬盘信息,因为后面的操作会用到这些磁盘 信息! [root@yufei ~]# mdadm -D /dev/md5 Number Major Minor RaidDevice State 3 8 80 0 active sync /dev/sdf 0 8 32 1 active sync /dev/sdc 4 8 64 2 active sync /dev/sde 5 8 96 3 active sync /dev/sdg 1 8 48 spare /dev/sdd 4、 在确认/dev/md5 已经停止后,开始移除 RAID 里面的磁盘(这是关键的一步,如果不做 这些移除操作,则不能彻底删除/dev/md5,这个 md5 就以/dev/md127 的身份出现了) 5、 注意删除 RAID 里面的所有磁盘时,一定要把 RAID 停止后才能执行,否则会出现下面 的错误提示 mdadm: Couldn’t open /dev/sde for write – not zeroing 下面开始进行删除磁盘操作 # mdadm --misc --zero-superblock /dev/sdf # mdadm --misc --zero-superblock /dev/sdc # mdadm --misc --zero-superblock /dev/sde # mdadm --misc --zero-superblock /dev/sdg # mdadm --misc --zero-superblock /dev/sdd 6、 然后删除相关配置文件里面的 RAID 信息 # vim /etc/mdadm.conf # mdadm.conf written out by anaconda MAILADDR root AUTO +imsm +1.x -all ARRAY /dev/md5 metadata=1.2 UUID=bf1f8a7c:5c4b53bf:ef563b16:a68ac963 将蓝色加粗字体行内容删除spares=1name=hlinux6:5&&&&# vim /etc/fstab /dev/md5 /mnt/md ext4 defaults 00 将蓝色加粗字体行内容删除 7、 删除经过这四步就完全删除 RIAD 了。重新启动,也不会有 raid 的相关内容了。实训项目 3-2一、实训目的LVM 逻辑卷管理器● 掌握利用 LVM 创建磁盘分区的方法。二、项目背景某企业在 Linux 服务器中欲使用一个分区 sdb6,一个 RAID 设备 md5,一个磁盘 sdh 来建立逻辑卷设备,要求在这三个分别是:分区、磁盘阵列、磁盘设备上创建物理卷、卷组 和逻辑卷。最后将逻辑卷挂载。三、实训内容与知识准备 实训内容与知识准备 内容1.实训内容:物理卷、卷组、逻辑卷的创建;卷组、逻辑卷的管理。 2.相关知识: LVM 是逻辑盘卷管理(Logical Volume Manager)的简称,它是 Linux 环境下对磁盘分 区进行管理的一种机制,LVM 是建立在硬盘和分区之上的一个逻辑层,来提高磁盘分区管 理的灵活性。 LVM 是在磁盘分区和文件系统之间添加的一个逻辑层,来为 文件系统屏蔽下层磁盘分区布局,提供一个抽象的盘卷,在盘卷上 建立文件系统。物理卷(physical volume)物理卷就是指硬盘分区 或从逻辑上与磁盘分区具有同样功能的设备(如 RAID), LVM 的 是 基本存储逻辑块,但和基本的物理存储介质(如分区、磁盘等)比 较,却包含有与 LVM 相关的管理参数。 Linux 用户安装 Linux 操作系统时遇到的一个最常见的难以决 定的问题就是如何正确地给评估各分区大小, 以分配合适的硬盘空 LVM 间。而遇到出现 某个分区空间耗尽时,解决的方法通常是使用符 号链接,或者使用调整分区大小的工具(比如 PatitionMagic 等),但这都只是暂时解决办法, 没有根本解决问题。随着 Linux 的逻辑盘卷管理功能的出现,这些问题都迎刃而解,用户在 无需停机的情况下方便地调整各个分区大小。 LVM 基本术语 *物理存储介质(Thephysicalmedia) 物理存储介质( 物理存储介质 ) 这里指系统的存储设备:硬盘,如:/dev/hda1、/dev/sda 等等,是存储系统最低层的存 储单元。 *物理卷(physicalvolume) 物理卷( 物理卷 ) 物理卷就是指硬盘分区或从逻辑上与磁盘分区具有同样功能的设备(如 RAID),是 LVM 的基本存储逻辑块,但和基本的物理存储介质(如分区、磁盘等)比较,却包含有与 LVM 相关的管理参数。 *卷组(VolumeGroup) 卷组( 卷组 )&&&&LVM 卷组类似于非 LVM 系统中的物理硬盘,其由物理卷组成。可以在卷组上创建一个 或多个“LVM 分区”(逻辑卷) ,LVM 卷组由一个或多个物理卷组成。 *逻辑卷(logicalvolume) 逻辑卷 逻辑 ) LVM 的逻辑卷类似于非 LVM 系统中的硬盘分区,在逻辑卷之上可以建立文件系统(比 如/home 或者/usr 等)。 *PE(physicalextent) ( ) 具有唯一编号的 PE 是可以 每一个物理卷被划分为称为 PE(PhysicalExtents)的基本单元, 被 LVM 寻址的最小单元。PE 的大小是可配置的,默认为 4MB。 *LE(logicalextent) ( ) 逻辑卷也被划分为被称为 LE(LogicalExtents)的可被寻址的基本单位。在同一个卷组中, LE 的大小和 PE 是相同的,并且一一对应。参考下面的图加深理解: 参考下面的图加深理解:首先可以看到,物理卷(PV)被由大小等同的基本单元 PE 组成(PE 大小可以定义,默认 为 4M) 。一个卷组由一个或多个物理卷组成,PE 和 LE 有着一一对应的关系。 逻辑卷建立在卷组上。 逻辑卷就相当于非 LVM 系统的磁盘分区, 可以在其上创建文件系统。卷组(VG)可以理解为由几个物理卷(PV)形成的存储池;在存储池上可以划分出一定容 量做逻辑卷(LV) ,只要存储池空间足够大,可以动态从存储池中划出空间给逻辑卷使用; 而文件系统(FS)是创建在逻辑卷上的,由此可以实现动态调整文件系统的大小。下图是磁盘分区、卷组、逻辑卷和文件系统之间的逻辑关系的示意图:&&&&四、实训步骤 子项目 1.创建 LVM 分区1、 准备工作 如果你已经在实训项目 3-2 中创建了 md5 磁盘阵列, 下面我们将利用三个设备来做, 一 个分区 sdb6 一个 RAID 设备 md5 一个磁盘 sdh。 命令在/dev/sdb 上建立 LVM 类型的分区 类型的分区/dev/sdb6,如下所示: (1)利用 fdisk 命令在 ) ,如下所示: # fdisk /dev/sdb WARNING: DOS-compatible mode is deprecated. It's strongly recommended to switch off the mode (command 'c') and change display units to sectors (command 'u'). Command (m for help): n (输入选择 n,创建分区) ,创建分区) Command action l logical (5 or over) p primary partition (1-4) l 输入字母 ,选择创建逻辑分区 创建逻辑分区) (输入字母 l,选择创建逻辑分区) First cylinder (131-1305, default 131): 直接回车, (直接回车,相当于输入 131) ) Using default value 131 Last cylinder, +cylinders or +size{K,M,G} (131-1305, default 1305): +300M (输入 输入+300M) ) Command (m for help): t Partition number (1-6): 6 (输入 t,修改分区类型) ,修改分区类型) 号逻辑分区) (输入 6,选择 6 号逻辑分区) , Hex code (type L to list codes): 8e 类型) (设置分区类型为 LVM 类型) Changed system type of partition 6 to 8e (Linux LVM) Command (m for help): w (输入 w,写入分区修改信息) ,写入分区修改信息)&&&&The partition table has been altered! Calling ioctl() to re-read partition table. WARNING: Re-reading the partition table failed with error 16: Device or resource busy. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) Syncing disks. 根据上文的一段警告提示,我们重启系统,以便在后面能够正常使用/dev/sdb6。 查看/dev/sdb 磁盘的分区结果 # fdisk -l /dev/sdb Disk /dev/sdb: 10.7 GB,
bytes 255 heads, 63 sectors/track, 1305 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x Device Boot /dev/sdb1 /dev/sdb2 /dev/sdb5 /dev/sdb6 Start 1 51 51 131 End 50
Id System 83 Linux 5 Extended 83 Linux 8e Linux LVM说明:在修改分区类型时,如果记不住类型值,可以通过在 Command (m for help): 处 输入 h 获得帮助,或直接输入 l 字母查看所有类型值。 (2)建立物理卷 ) 注意使用 pvcreate 创建/dev/md5 的物理卷时, 要将/dev/md5 从文件系统中先卸载 (umount) , 并将 fstab 文件中的 mount 信息删除掉。 # pvcreate /dev/sdb6 /dev/sdh /dev/md5 Physical volume &/dev/sdb6& successfully created Physical volume &/dev/sdh& successfully created Physical volume &/dev/md5& successfully created 然后查看 PV 创建出来的结果 # pvdisplay &/dev/md5& is a new physical volume of &30.00 GiB& --- NEW Physical volume --PV Name /dev/md5 VG Name PV Size 30.00 GiB Allocatable NO PE Size 0 Total PE 0 Free PE 0&&&&Allocated PE PV UUID0 e6vi4T-7qLB-XRvr-9o2U-BMNV-rXbW-Bim2Zc&/dev/sdb6& is a new physical volume of &305.89 MiB& --- NEW Physical volume --PV Name /dev/sdb6 VG Name PV Size 305.89 MiB Allocatable NO PE Size 0 Total PE 0 Free PE 0 Allocated PE 0 PV UUID d0kCtg-d61b-0C93-Bfz6-PDWO-LmJs-yIpkAC &/dev/sdh& is a new physical volume of &10.00 GiB& --- NEW Physical volume --PV Name /dev/sdh VG Name PV Size 10.00 GiB Allocatable NO PE Size 0 Total PE 0 Free PE 0 Allocated PE 0 PV UUID DvMNzo-FlV7-jK18-g80e-Fy90-22F3-Q2Bmid (3)建立卷组 ) # vgcreate vg0 -s32M /dev/sdb6 /dev/sdh /dev/md5 Volume group &vg0& successfully created 注:这里面 PE(物理扩展块大小)的大小是 32M,默认是 4M,如果想设置这个值,可以 在创建 VG 的时候加上-s 并指定大小 VG0:创建的 VG 设备的名字,随便起。后面接的是设备,整个命令的意思就是:创建卷组 vg0,包含 3 个物理卷设备(/dev/sdb6, /dev/sdh, /dev/md5) ,下面查看卷组 vg0 的信息 : #vgdisplay --- Volume group --VG Name vg0 System ID Format lvm2 Metadata Areas 3 Metadata Sequence No 1 VG Access read/write VG Status resizable MAX LV 0&&&&Cur LV Open LV Max PV Cur PV Act PV VG Size PE Size Total PE Alloc PE / Size Free PE / Size VG UUID0 0 0 3 3 40.22 GiB 32.00 MiB
1287 / 40.22 GiB AmThUb-ahwa-oIFy-bGnV-LbxN-uWeW-W5d83y(4)建立逻辑卷 ) # lvcreate -n lv1 -L 100M vg0 Rounding up size to full physical extent 128.00 MiB Logical volume &lv1& created # lvcreate -n lv0 -L 100M vg0 Rounding up size to full physical extent 128.00 MiB Logical volume &lv0& created 参数说明: -L 指定创建 LV 大小 -l 指定创建 LV 的 PE 数量 -n LV 的名字 上面命令的意思是: 从卷组 vg0 中分出 100M 的空间给逻辑卷 lv0 使用, 但是注意我们的 PE 大小是 32M,这个 100M 却不是 32 的整数倍,那么实际创建 lv0 的大小是多少呢? 当然是 128M,下面请查看 LV 的信息 # lvdisplay /dev/vg0/lv0 --- Logical volume --LV Name /dev/vg0/lv0 VG Name vg0 LV UUID 01DCf4-2HwS-LQcF-EfDK-Pqic-qH1n-s2WF4N LV Write Access read/write LV Status available # open 0 LV Size 128.00 MiB Current LE 4 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 253:0子项目 2. LVM 逻辑卷的使用&&&&首先查看 /dev 目录下新生成的设备 # ll /dev/vg0/lv0 lrwxrwxrwx. 1 root root 7 Mar 13 21:07 /dev/vg0/lv0 -& ../dm-0 #ll /dev/vg0/lv1(1) 创建文件系统(格式化)# mkfs -t ext4 /dev/vg0/lv0(2) 挂载使用# mkdir /mnt/mylv # mount /dev/vg # mount /dev/vg0/lv0/mnt/mylv/把挂载信息加入到/etc/fstab,确保删除/dev/md5 挂载行的内容,并在最后一行添加如下内 容: # vim /etc/fstab /dev/vg0/lv0 /mnt/mylv ext4 defaults 00 #mount -a # df Filesystem /dev/sda3 tmpfs /dev/sda1 /dev/sdb1 /dev/sdb5 /dev/mapper/vg0-lv0(查看文件系统的磁盘占用情况) 查看文件系统的磁盘占用情况) 的磁盘占用情况 1K-blocks Used Available Use% Mounted on 4 15% /
% /dev/shm 47 % /boot 54 % /mnt/mountpoint1
% /mnt/mountpoint2 6 % /mnt/mylv# touch /mnt/mylv/file{1,2,3} # ll /mnt/mylv/ total 15 -rw-r--r--. 1 root root 0 Mar 13 21:52 file1 -rw-r--r--. 1 root root 0 Mar 13 21:52 file2 -rw-r--r--. 1 root root 0 Mar 13 21:52 file3 drwx------. 2 root root 12288 Mar 13 21:38 lost+found子项目 3. LVM 逻辑卷的管理(1) 增加新的物理卷到卷组第一种方法, 第一种方法,增加 pv 设备&&&&你可以增加硬盘或者分区,然后再创建 PV 设备,然后把他加入 VG 中就可以了。下面我 们再在硬盘/dev/sdb 上增加一个新的分区/dev/sdb7,并加入卷组。方法同上(参考子项目 1 的步骤(1)创建一个 300M 的新的逻辑分区) ,此处不再赘述。 LVM 类型的/dev/sdb7 创建好后,创建 pv 设备 # pvcreate /dev/sdb7 Physical volume &/dev/sdb7& successfully created # vgextend vg0 /dev/sdb7 Volume group &vg0& successfully extended # vgdisplay --- Volume group --VG Name vg0 System ID Format lvm2 Metadata Areas 4 Metadata Sequence No 3 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 0 Max PV 0 Cur PV 4 Act PV 4 VG Size 40.50 GiB PE Size 32.00 MiB Total PE 1296 Alloc PE / Size 4 / 128.00 MiB Free PE / Size 1292 / 40.38 GiB VG UUID AmThUb-ahwa-oIFy-bGnV-LbxN-uWeW-W5d83y 需要注意的是, 现在 vg0 的 PE 的块数由原来的 1287 增加到 1296, 多了 9 块。 因为 300M 除以 32M 得到的商正是 9。第二种方法, 设备的容量, 第二种方法,通过扩展 RAID 设备的容量,来增加 VG 的容量 # mdadm /dev/md5 -a /dev/sdi mdadm: added /dev/sdi # vgdisplay vg0 | grep &VG Size& VG Size 40.50 GiB 这时我们发现,VG Size 仍然是 40.50 GB,并没有发生改变,查看磁盘阵列 # mdadm -D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Sun Mar 11 20:44:19 2012 Raid Level : raid5&&&&Array Size : .00 GiB 32.21 GB) Used Dev Size : .00 GiB 10.74 GB) Raid Devices : 4 Total Devices : 6 Persistence : Superblock is persistent Update Time : Tue Mar 13 19:53:53 2012 State : clean Active Devices : 4 Working Devices : 6 Failed Devices : 0 Spare Devices : 2 Layout : left-symmetric Chunk Size : 512K Name : hlinux6:5 (local to host hlinux6) UUID : bf1f8a7c:5c4b53bf:ef563b16:a68ac963 Events : 153 Number 3 0 4 5 Major 8 8 8 8 Minor 80 32 64 96 RaidDevice State 0 active sync 1 active sync 2 active sync 3 active sync/dev/sdf /dev/sdc /dev/sde /dev/sdg1 8 48 spare /dev/sdd 6 8 128 spare /dev/sdi 调整工作盘的数量为 5 块磁盘,则容量(Array Size)应增加到 40GB。 # mdadm -G /dev/md5 -n5 mdadm: Need to backup 6144K of critical section.. 稍等片刻,查询磁盘阵列的 Array Size # mdadm -D /dev/md5 | grep &Array Size& Array Size : .99 GiB 42.94 GB) 再来查看一下 VG 的大小,VG Size 仍然是 40.50 GB,并没有发生改变,如下所示: # vgdisplay | grep &VG Size& VG Size 40.50 GiB 虽然/dev/md5 的大小变化了,但是在/dev/md5 上建立的 pv 大小并没有调整,所以我们需要 调整 pv 大小 # pvresize /dev/md5 Physical volume &/dev/md5& changed&&&&1 physical volume(s) resized / 0 physical volume(s) not resized # vgdisplay | grep &VG Size& VG Size 50.50 GiB vg0 容量调整完毕。收工!(2) 逻辑卷容量的调整先查看 lv0 的大小 # lvdisplay /dev/vg0/lv0 | grep &LV Size& LV Size 128.00 MiB 增加 lv0 的大小 这时,vg0 中没有分配的空间还有很多,所以可以放心扩容。 # lvextend -L +10M /dev/vg0/lv0 Rounding up size to full physical extent 32.00 MiB Extending logical volume lv0 to 160.00 MiB Logical volume lv0 successfully resized 观察结果,发现增加了 32M,这是因为最小的分配 PE(物理扩展块,大小默认是 4M)的 大小是 32M 的缘故。 好了,那现在我们能是否能够在 linux 文件系统中,使用 160M 的空间(/mnt/mylv)了吧? 使用 df 命令查看一下文件系统的磁盘占用情况: # df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda3 0 15% / tmpfs
% /dev/shm /dev/sda1 47 % /boot /dev/sdb1 54 % /mnt/mountpoint1 /dev/sdb5
% /mnt/mountpoint2 /dev/mapper/vg0-lv0 7 % /mnt/mylv观察最后一行,原来大小还是没有变化!虽然逻辑卷增大了,但是逻辑卷上的文件系统并未 获知,还需要调整文件系统。 # resize2fs /dev/vg0/lv0 resize2fs 1.41.12 (17-May-2010) Filesystem at /dev/vg0/lv0 is mounted on /mnt/ on-line resizing required old desc_blocks = 1, new_desc_blocks = 1 Performing an on-line resize of /dev/vg0/lv0 to k) blocks. The filesystem on /dev/vg0/lv0 is now 163840 blocks long. [root@hlinux6 Desktop]# df | grep &/mnt/mylv& /dev/mapper/vg0-lv0 7 % /mnt/mylv 这时,再看,/mnt/mylv 下的磁盘空间增加了。我们再来观察一下/mnt/mylv 目录下的内容, 看看里面的文件也是正常的 需要注意的是,我们整个操作都是在线的,没有把/mnt/mylv 从文件系统中卸载(umount) 从文件系统中卸载( 需要注意的是,我们整个操作都是在线的,没有把 )&&&&过。减小 lv0 的大小 减小卷组的大小与增加卷组大小的操作正好相反, 第一步是收缩文件系统的大小, 次序千万 不能错了。 首先卸载卷组 # umount /mnt/mylv # resize2fs /dev/vg0/lv0 60M resize2fs 1.41.12 (17-May-2010) Please run 'e2fsck -f /dev/vg0/lv0' first. # e2fsck -f /dev/vg0/lv0 e2fsck 1.41.12 (17-May-2010) Pass 1: Checking inodes, blocks, and sizes Pass 2: Checking directory structure Pass 3: Checking directory connectivity Pass 4: Checking reference counts Pass 5: Checking group summary information /dev/vg0/lv0: 14/40960 files (0.0% non-contiguous),
blocks # resize2fs /dev/vg0/lv0 64M resize2fs 1.41.12 (17-May-2010) Resizing the filesystem on /dev/vg0/lv0 to 65536 (1k) blocks. The filesystem on /dev/vg0/lv0 is now 65536 blocks long. # lvreduce -L -96M /dev/vg0/lv0 WARNING: Reducing active logical volume to 64.00 MiB THIS MAY DESTROY YOUR DATA (filesystem etc.) Do you really want to reduce lv0? [y/n]: y Reducing logical volume lv0 to 64.00 MiB Logical volume lv0 successfully resized 成功完成, 下面将逻辑卷挂载到文件系统中, 分别查看逻辑卷本身和其在文件系统中的容量 # lvdisplay | grep &LV Size& LV Size 64.00 MiB #mount –a # df | grep &/mnt/mylv& /dev/mapper/vg0-lv0
54795 9% /mnt/mylv总结:扩展先扩展逻辑卷,再扩展文件系统 总结 而收缩时相反,先缩小文件系统,再 收缩逻辑卷(如图)逻辑卷 文件系统&&&&子项目 3.物理卷、卷组和逻辑卷的检查(1) 物理卷的检查 # pvscan PV /dev/sdb6 VG vg0 lvm2 [288.00 MiB / 224.00 MiB free] PV /dev/sdh VG vg0 lvm2 [9.97 GiB / 9.97 GiB free] PV /dev/md5 VG vg0 lvm2 [39.97 GiB / 39.97 GiB free] PV /dev/sdb7 VG vg0 lvm2 [288.00 MiB / 288.00 MiB free] Total: 4 [50.50 GiB] / in use: 4 [50.50 GiB] / in no VG: 0 [0 ](2) 卷组的检查 # vgscan Reading all physical volumes. This may take a while... Found volume group &vg0& using metadata type lvm2(3) 逻辑卷的检查 # lvscan ACTIVE'/dev/vg0/lv0' [64.00 MiB] inherit子项目 4.删除逻辑卷-卷组-物理卷删除逻辑卷-卷组-物理卷 (必需按照先后顺序来执行删除) 如果说要彻底的来移除 LVM 的话,你需要把创建的步骤反过来操作。 1、umount # umount /mnt/mylv/ 2、 移除 LV # lvremove /dev/vg0/lv0 Do you really want to remove active logical volume lv0? [y/n]: y Logical volume &lv0& successfully removed 3、 移除 VG # vgremove vg0 Volume group &vg0& successfully removed 4、 移除 PV针对查找出来的,进行清理# pvdisplay | grep &PV Name& PV Name/dev/md5&&&&PV Name PV Name PV Name/dev/sdb6 /dev/sdb7 /dev/sdh# pvremove /dev/md5 /dev/sdb6 /dev/sdb7 /dev/sdh Labels on physical volume &/dev/md5& successfully wiped Labels on physical volume &/dev/sdb6& successfully wiped Labels on physical volume &/dev/sdb7& successfully wiped Labels on physical volume &/dev/sdh& successfully wiped 5、 如果是分区的话,使用 fdisk 把 ID 改回来 # fdisk /dev/sdb WARNING: DOS-compatible mode is deprecated. It's strongly recommended to switch off the mode (command 'c') and change display units to sectors (command 'u'). Command (m for help): p Disk /dev/sdb: 10.7 GB,
bytes 255 heads, 63 sectors/track, 1305 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x Device Boot /dev/sdb1 /dev/sdb2 /dev/sdb5 /dev/sdb6 /dev/sdb7 /dev/sdb8 Start 1 51 51 131 170 209 End 50
208 247 Blocks
236 Id System 83 Linux 5 Extended 83 Linux 8e Linux LVM 8e Linux LVM 83 LinuxCommand (m for help): t Partition number (1-8): 6 Hex code (type L to list codes): 83 Changed system type of partition 6 to 83 (Linux) Command (m for help): t Partition number (1-8): 7 Hex code (type L to list codes): 83 Changed system type of partition 7 to 83 (Linux) Command (m for help): w&&&&The partition table has been altered! Calling ioctl() to re-read partition table. WARNING: Re-reading the partition table failed with error 16: Device or resource busy. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) Syncing disks. 6、如果有 RAID 设备的话,也同样清除掉吧 RAID 设备的清除方法,请参考实训项目 3-2 中的子项目 6。 7、清除了逻辑卷和磁盘阵列后,不要忘了把/etc/fstab 和/etc/mdadm.conf 文件中的内容删 除无用部分。附加知识点Mount 挂载命令使用方法 语法: mount -t 类型 -o 挂接方式 源路径 目标路径 -t 详细选项: 光盘或光盘镜像:iso9660 DOS fat16 文件系统:msdos Windows 9x fat32 文件系统:vfat Windows NT ntfs 文件系统:ntfs Mount Windows 文件网络共享:smbfs(需内核支持)推荐 cifs UNIX(LINUX) 文件网络共享:nfs -o 详细选项: loop :用来把一个文件当成硬盘分区挂接上系统 ro :采用只读方式挂接设备 rw :采用读写方式挂接设备 iocharset :指定访问文件系统所用字符集,例如 iocharset=utf8 remount :重新挂载 使用实例: 挂载 windows 文件共享: mount -t smbfs -o username=admin,password=888888 //192.168.1.2/c$ /mnt/samba&&&&mount -t cifs -o username=xxx,password=xxx //IP/sharename /mnt/dirname 挂载 Linux 文件 nfs 共享: mount -t nfs -o rw 192.168.1.2:/usr/www /usr/www 挂载 ISO 镜像: mount -o loop -t iso9660 /usr/mydisk.iso /home/ping.bao/cd 挂载 USB 移动硬盘: mount -t ntfs /dev/sdc1 /root/usb 挂载 CDROM: mount /dev/cdrom /home/ping.bao/cd 取消挂载: umount /dev/cdrom /home/ping.bao/cd 单用户模式重新挂载根分区: mount -o remount,rw / ● RAID 设备的删除 一般都是这样的步骤: 通过 ll /dev/md* ll /dev/sd* fdisk –l 等命令查明有几块 md 设备 (一般 raid 设备都以 md 开头) 一般情况下都 mount 了, , 然后以下面的方法删除: (1)umount 卸载 RAID 设备 (2)编辑配置文件包括 /etc/mdadm.conf /etc/fstab (3)停止 RAID 设备 mdadm -S /dev/md5 一般情况下到这里就结束了,但是在 RHEL6 的系统上,你会发现仅上面的步骤是完 全不行的,RHEL6 系统重新启动后,他会自动创建/dev/md127(这里不同级别数字会不 同)这样的文件,而且以前在 RAID 里面的设备,你是不能使用的。如果你遇到这样的情 况的话, 就说明我们做的 RAID 没有彻底删除。 那么下面给出实现彻底删除的具体方法: 给出实现彻底删除的具体方法: 给出实现彻底删除的具体方法 先看看具体的情况: mdadm -D /dev/md5 Number Major Minor RaidDevice State 3 8 64 0 active sync /dev/sde 1 8 32 1 active sync /dev/sdc 4 8 48 2 active sync /dev/sdd 5 8 80 spare /dev/sdf&&&&下面开始: 1、umount 卸载 RAID 设备 # umount /dev/md5 2、停止 RAID 设备 # mdadm -S /dev/md5 mdadm: stopped /dev/md5 如果设备停止后想重新开启,就可以这样做: # mdadm -A -s /dev/md5 mdadm: /dev/md5 has been started with 3 drives 然后再次查看下,是否启动了: # mdadm -D /dev/md5 Number Major Minor RaidDevice State 3 8 64 0 active 1 8 32 1 active 4 8 48 2 active 5 8 80 spareand 1 spare.sync /dev/sde sync /dev/sdc sync /dev/sdd /dev/sdf下面重新停止 # mdadm -S /dev/md5 mdadm: stopped /dev/md5 3、移除 RAID 里面的磁盘(这是关键的一步)删除 RAID 里面的所有磁盘,这一步,一 定要把 RAID 停止后才能执行,否则会出现下面的错误提示: mdadm: Couldn’t open /dev/sde for write – not zeroing # mdadm --misc --zero-superblock /dev/sde # mdadm --misc --zero-superblock /dev/sdc # mdadm --misc --zero-superblock /dev/sdd # mdadm --misc --zero-superblock /dev/sdf OK,这时候就把 RAID 里面的所有磁盘删除掉了。 4、删除相关配置文件里面的 RAID 信息 # vim /etc/mdadm.conf 把下面这一行删除 ARRAY /dev/md5 metadata=1.2 spares=1 name=yufei:5 UUID=e33c5:4d5015cf # vim /etc/fstab 把下面的这一行删除 /dev/md5 /mnt ext4 defaults 0 0 经过这四步就完全删除 RIAD 了。重新启动,也不会有 raid 的相关内容了。

我要回帖

更多关于 sas新建逻辑库 的文章

 

随机推荐