既存のコンピュータで3ディスクレイド5を行いましたが、マザーボードが故障しました。すべてのディスクを新しいコンピュータに挿入したため、RAIDを起動する必要はなくなりました。コンピュータを起動するとすべてのディスクが表示され、mdadm -E /dev/sd [bcd] 1は3つのディスクがすべてクリーンであることを示します。 Cat /proc/mdstat では /dev/md0 と言います。 inactive sdc13 sdd11 sdb10 私はこのコンピュータでfedora 15を実行しています。このレイド開始についてのアドバイスをいただきありがとうございます!
--edited-- その間にOSを再インストールし(レードに含まれていない別の新しいディスクに)、CentOS 7を使用しました。
出力:
mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 822d3a00:cf68046c:45de1427:d65beb68
Internal Bitmap : 8 sectors from superblock
Update Time : Mon Nov 10 22:19:29 2014
Checksum : 195e3a86 - correct
Events : 1527192
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing)
mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4
Internal Bitmap : 8 sectors from superblock
Update Time : Tue Nov 11 19:01:52 2014
Checksum : d11417ca - correct
Events : 1527199
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : ..A ('A' == active, '.' == missing)
cat /proc/mdstat
Personalities :
md127 : inactive sdb1[3](S) sda1[1](S)
3907024896 blocks super 1.1
unused devices: <none>
mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
この時点で彼はディスクを失ったようです(/devリストにもありません)。コンピュータを移動した後、ケーブルが緩んでいる可能性があります。私は現在私のオフィス(あまりにも多くの時間を過ごす場所)でSSH経由でアクセスしています。通常、3番目のディスクのmdadm -E /dev/sdX1は、他の2つのディスクに同様の出力を提供します。
- - 編集する - -
3台目のディスクのポートが破損しているようです。他のカードに接続した後もmdadm -Eが表示されます!
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67
Internal Bitmap : 8 sectors from superblock
Update Time : Fri May 4 09:51:16 2012
Checksum : 262a346f - correct
Events : 82967
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing)
cat /proc/mdstat 次のように言います。
# cat /proc/mdstat
Personalities :
md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S)
5860537344 blocks super 1.1
unused devices: <none>
それでは、少なくとも可能な限り多くのデータをコピーするのに十分な長さのこの攻撃をオンラインに戻すにはどうすればよいですか?
ベストアンサー1
新しくインストールし、新しいコンピュータにドライブを追加したとします。
まず一つを作ってください:
mdadm --assemble --scan
/proc/mdstat
アレイが有効になっていることを確認してください。次に、次を実行します。
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
新しい mdadm.conf から構成情報を再インポートします。