[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[debian-users:56673] Re: debian RAID1 異常な片肺



途中のメールが送信されてしまい失礼しました。

できる事はmdadmでfailしたディスクを強制的に上げる方法ですが、ディスク間の一貫性が保たれている場合以外は上手くいかないと思います。(RAID5で2本同時に落ちた等)

mdadm --assemble /dev/md0 /dev/sd[ab]1 --force
# ディスクに記録されたFailの情報を無視して強制的にmdデバイスを起動する。

よってディスクが1本でも正常なうちに、新しいディスクに替えてリビルドするほうが賢明だと思います。

櫻井


2013年1月4日 22:22 Youhei Sakurai <sakurai.youhei@xxxxxxxxx>:
> RAID1領域はFailしているわけではないのでdegrade後も更新がかかってて、内容に差異が発生しているはずなので結局リビルドが必要だと思います。
>
> できることはmdadmで
>
> Sent from my iPhone
>
> On 2013/01/04, at 19:56, SUZUKI、Tsunehito <tsunejin-c122@xxxxxxxx> wrote:
>
> 鈴木と申します。
>
> 端末8台に対するファイルサーバーとして、
> debian squeeze6.0.3、RAID1(1THDDx2台)構成しています。
>
> 端末起動時、挙動が鈍いと感じ、
> このサーバーを確認すると、
>
> #more /proc/mdstat
>
> → いずれも、[ _ U]
>
> 構築6か月でおしゃかか?
> いくらこの極寒北海道とはいえ!
> 念のため再起動、
> するとBIOS認識時は、どうもアクセスしてる、
> 「死んではいない」
>
> そこで、起動している、sdbをはずし、
> 起動していない sda のみで電源ON
>
> やった、正常起動だ。
>
> つまり、sda、sdb、1台づつなら、「正常」片肺起動しますが、
> sda、sdb、2台いれて、RAID1として起動すると、
> sdaは removed、[ _ U] となります。
>
> ここから正常に戻すお知恵をお願いします。
> (sdaを初期化、fdiskかけ、新HDDとするのは最終手段として)
>
> よろしくお願いいたします。