[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
[debian-users:56211] Debian6.0.3、RAID1ファイルサーバー
鈴木と申します。お願いします。
Debian6.0.3、webmin1.570、RAID1ファイルサーバーを
windowsXP/7端末7〜10台の小規模オフィースで使用しています。
「Debianサーバー」
mother : ASUS A7V880
CPU : AthlonXP2000
memory : 1G
HDD : WD500G/x2
RAID1は、システム丸ごとRAID1です(/homeのみではなく)
md0: SWAP、1GB
md1:/boot、1GB
md2:/ 、498GB
RAID1HDD500G/x2 --> 1T/x2
へ変更しようと、RAID構成チェックをしたところ、
root~# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sda3[0]
486430584 blocks super 1.2 [2/1] [U_]
md1 : active (auto-read-only) raid1 sda2[0]
976884 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sda1[0]
975860 blocks super 1.2 [2/1] [U_]
unused devices: <none>
と、sdb、死んでることになており、
あわてて、中身を見ると、
root~# fdisk /dev/sda -l
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000678a9
Device Boot Start End Blocks Id System
/dev/sda1 1 122 975872 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary.
〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜
/dev/sda2 122 244 976896 fd Linux raid autodetect
Partition 2 does not end on cylinder boundary.
〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜
/dev/sda3 244 60802 486431744 fd Linux raid autodetect
root~# fdisk /dev/sdb -l
Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00012d31
Device Boot Start End Blocks Id System
/dev/sdb1 1 122 975872 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary.
〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜
/dev/sdb2 122 244 976896 fd Linux raid autodetect
Partition 2 does not end on cylinder boundary.
〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜
/dev/sdb3 244 60802 486431744 fd Linux raid autodetect
と、各Arrayが、閉じられていないと言うような表記が!
(この辺、詳しくなくてすみません)
HDDは、はずして確認したところ、物理的には問題ありませんでした。
思い当たるのは、
4月に、(故障時のために)sdbにもGRUBをinstallしておこうと。
1)sdaをはずし、sdbで起動 --> 当然、起動せず。
2)sdaをもどし、sdaのみで起動 --> 異常なく起動
3)以下、試みるも、うまくいかず中止し、sda、sdb 戻した。
debian:~# grub
grub> device (hd0) /dev/sdb
grub> root (hd0,1)
Filesystem type is ext2fs, partition type 0xfd
grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/menu.lst
grub> quit
ということがありました。
これで、〜〜〜〜 になったんでしょうか。
機能していない「sdb」を復活させるのは、
http://myct.jp/wiki/?Debian%E3%81%A7RAID1
のように、「ディスク障害時の対応」になるのでしょうか?
(ここはまだ怖くて行っていないのですが)
ご教授ください。
ちなみに、md0〜3は以下のようにまります。
root~# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Jan 4 19:37:25 2012
Raid Level : raid1
Array Size : 975860 (953.15 MiB 999.28 MB)
Used Dev Size : 975860 (953.15 MiB 999.28 MB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Mon Jun 25 08:46:59 2012
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : debianPC:0 (local to host debianPC)
UUID : 9929dba5:dd58a239:0d77ac7d:6d1be219
Events : 586
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 0 0 1 removed
root~# mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Wed Jan 4 19:37:44 2012
Raid Level : raid1
Array Size : 976884 (954.15 MiB 1000.33 MB)
Used Dev Size : 976884 (954.15 MiB 1000.33 MB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Sun Jun 3 00:57:01 2012
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : debianPC:1 (local to host debianPC)
UUID : 1203cf91:6ad7fb16:b987b792:390b4e2c
Events : 68
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 0 0 1 removed
root~# mdadm --detail /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Wed Jan 4 19:37:59 2012
Raid Level : raid1
Array Size : 486430584 (463.90 GiB 498.10 GB)
Used Dev Size : 486430584 (463.90 GiB 498.10 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Mon Jun 25 13:30:59 2012
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : debianPC:2 (local to host debianPC)
UUID : e5170c1d:9f080758:c2a9c188:5ef0c118
Events : 1465748
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 0 0 1 removed