본문 바로가기

리눅스/centos

[centos] softraid 로그확인

반응형

centos 설치시 boot 영역과 스왑등 모든 파티션을 Raid1로 구축하여 확인및 복구하는 명령어입니다.


정상 소프트 레이드 로그


아래는 soft raid 의 정상적 로그임

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[1] sda1[0]

      200704 blocks [2/2] [UU]

      

md1 : active raid1 sdb2[1] sda2[0]

      4192896 blocks [2/2] [UU]

      

md2 : active raid1 sdb3[1] sda3[0]

      483990144 blocks [2/2] [UU]

      

unused devices: <none>

[root@localhost ~]# mdadm --detail -scan

ARRAY /dev/md2 level=raid1 num-devices=2 metadata=0.90 UUID=e7714883:e8cffa47:2cdaf02b:02e6bb6b

ARRAY /dev/md1 level=raid1 num-devices=2 metadata=0.90 UUID=5ee9c6be:b2dbe1f1:bfc9f20d:33edc577

ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=6c2e3f0e:c71fe54f:63618dbd:b7fbaeef

[root@localhost ~]#


비 정상 소프트 레이드 로그 (HDD sda에 서버에서 빠져 장애 발생)

ex) soft 레이드 설치 후 강제적으로 sda HDD 를 제거하였다 


[root@localhost ~]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[1]

      200704 blocks [2/1] [_U]

      

md1 : active raid1 sdb2[1] sda2[0]

      4192896 blocks [2/2] [UU]

      

md2 : active raid1 sdb3[1]

      483990144 blocks [2/1] [_U]

      

unused devices: <none>


[root@localhost ~]# mdadm --detail -scan

ARRAY /dev/md2 level=raid1 num-devices=2 metadata=0.90 spares=1 UUID=25f3f5ea:a5eecf0f:abaed96d:2e88c4ba

ARRAY /dev/md1 level=raid1 num-devices=2 metadata=0.90 UUID=547eefc1:5a4eaab3:2cbdfb71:5f2ac36d

ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 spares=1 UUID=839167ac:3c3fac36:9e613985:bb0fd425



자세한 상태를 출력하여 장애상황을 보자

[root@localhost ~]# mdadm --detail /dev/md2


## 해결방안 ##

mdadm 명령어로 없어진 파티션을 추가 


[root@localhost ~]# mdadm  /dev/md2 --add /dev/sda3

mdadm: re-added /dev/sda3


[root@localhost ~]# mdadm  /dev/md0 --add /dev/sda1

mdadm: re-added /dev/sda1


해당 명령어로 소프트 레이드의 구성 변화를 알 수 있다.


[root@localhost ~]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sda1[2] sdb1[1]

      200704 blocks [2/1] [_U]

              resync=DELAYED

      

md1 : active raid1 sdb2[1] sda2[0]

      4192896 blocks [2/2] [UU]

      

md2 : active raid1 sda3[2] sdb3[1]

      483990144 blocks [2/1] [_U]

      [>....................]  recovery =  0.1% (543360/483990144) finish=605.6min speed=13300K/sec


[root@localhost ~]# mdadm --detail /dev/md2

/dev/md2:

        Version : 0.90

  Creation Time : Mon Jan 12 19:12:30 2009

     Raid Level : raid1

     Array Size : 483990144 (461.57 GiB 495.61 GB)

  Used Dev Size : 483990144 (461.57 GiB 495.61 GB)

   Raid Devices : 2

  Total Devices : 2

Preferred Minor : 2

    Persistence : Superblock is persistent


    Update Time : Sat Aug  4 00:42:28 2012

          State : clean, degraded, recovering

 Active Devices : 1

Working Devices : 2

 Failed Devices : 0

  Spare Devices : 1


 Rebuild Status : 8% complete


           UUID : 25f3f5ea:a5eecf0f:abaed96d:2e88c4ba

         Events : 0.4068


    Number   Major   Minor   RaidDevice State

       2       8        3        0      spare rebuilding   /dev/sda3

       1       8       19        1      active sync   /dev/sdb3



위와 같이 동기화 되는 것을 확인할 수 있지만 기다려보자


리커버리 모드가 실행이 마친 후  아래의 붉은 값과 같다면 정상적으로 재 복원이 된 상태이다.



아래는 정상정인 복원 로그가 출력 되는 것을 볼 수 있다.

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[1] sda1[0]

      200704 blocks [2/2] [UU]

      

md1 : active raid1 sdb2[1] sda2[0]

      4192896 blocks [2/2] [UU]

      

md2 : active raid1 sdb3[1] sda3[0]

      483990144 blocks [2/2] [UU]


[root@localhost ~]# mdadm --detail -scan      

ARRAY /dev/md2 level=raid1 num-devices=2 metadata=0.90 UUID=25f3f5ea:a5eecf0f:abaed96d:2e88c4ba

ARRAY /dev/md1 level=raid1 num-devices=2 metadata=0.90 UUID=547eefc1:5a4eaab3:2cbdfb71:5f2ac36d

ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=839167ac:3c3fac36:9e613985:bb0fd425


[root@localhost ~]#  mdadm --detail /dev/md2

/dev/md2:

        Version : 0.90

  Creation Time : Mon Jan 12 19:12:30 2009

     Raid Level : raid1

     Array Size : 483990144 (461.57 GiB 495.61 GB)

  Used Dev Size : 483990144 (461.57 GiB 495.61 GB)

   Raid Devices : 2

  Total Devices : 2

Preferred Minor : 2

    Persistence : Superblock is persistent


    Update Time : Mon Aug  6 09:43:06 2012

          State : clean

 Active Devices : 2

Working Devices : 2

 Failed Devices : 0

  Spare Devices : 0


           UUID : 25f3f5ea:a5eecf0f:abaed96d:2e88c4ba

         Events : 0.48330


    Number   Major   Minor   RaidDevice State

       0       8        3        0      active sync   /dev/sda3

       1       8       19        1      active sync   /dev/sdb3



sfidsk -d /dev/sda | sfdisk /dev/sdb   파티션 복제 명령어




반응형

'리눅스 > centos' 카테고리의 다른 글

[centos] softraid 복구 테스트 (요점 정리)  (0) 2014.03.20
[centos] softraid 복구 테스트  (0) 2014.03.20
[centos]패스워드 복구  (0) 2014.03.19
[centos]5.8 설치(5.x)  (0) 2014.03.17
[centos]cpu,memory 확인하기  (0) 2014.03.17