EC2へのRAID0 EBSアレイのマウント

EC2へのRAID0 EBSアレイのマウント

インスタンスが停止してEBSボリュームのスナップショットが作成され、再起動されるまで、EC2で正しく実行されている2つのEBSボリュームにRAID 0があります。これでRAIDアレイに入るとmountそうすることができないようです。

$ sudo mdadm --assemble -v /dev/md0 /dev/xvdj1 /dev/xvdk1

しかし、私が試した場合mount

$ mount -t ext4 /dev/md0 /mnt

わかりました。

mount: wrong fs type, bad option, bad superblock on /dev/md0,
   missing codepage or helper program, or other error
   In some cases useful info is found in syslog - try
   dmesg | tail  or so

私は何が間違っていましたか?

メモ:はい、ファイルシステムがext4であり、大量のデータがあると確信しています。

ベストアンサー1

ディストリビューションによっては、MDADM RAIDアレイの上部にLVMレイヤーがある場合があります。次のように、デバイスにどのタイプのファイルシステムがあるかを確認できます/dev/md0

$ sudo tune2fs -l /dev/md0
tune2fs 1.39 (29-May-2006)
tune2fs: Bad magic number in super-block while trying to open /dev/md0
Couldn't find valid filesystem superblock.

このRAIDアレイには直接ファイルシステムはありません。次のように、一番上にLVMレイヤーがあることを確認できます。

$ sudo pvs
  PV         VG         Fmt  Attr PSize   PFree
  /dev/md0   lvm-raid2  lvm2 a--    2.73T    0 
  /dev/sda6  VolGroup00 lvm2 a--  230.47G    0 

$ sudo vgs
  VG         #PV #LV #SN Attr   VSize   VFree
  VolGroup00   1   2   0 wz--n- 230.47G    0 
  lvm-raid2    1   1   0 wz--n-   2.73T    0 

$ sudo lvs
  LV       VG         Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  LogVol00 VolGroup00 -wi-ao 228.53G                                      
  LogVol01 VolGroup00 -wi-ao   1.94G                                      
  lvm0     lvm-raid2  -wi-ao   2.73T                       

上記では、デバイスが/dev/md0LVMで使用される物理デバイスであることがわかります。ボリュームグループ、lvm-raid2.このVGには論理ボリュームLVがありますlvm0。したがって、このLVは最終的にファイルシステムを含み、シナリオでマウントするデバイスになります。

$ sudo tune2fs -l /dev/lvm-raid2/lvm0 
tune2fs 1.39 (29-May-2006)
Filesystem volume name:   <none>
Last mounted on:          <not available>
Filesystem UUID:          285f5221-1637-4018-adf2-687a3c237f56
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery sparse_super large_file
Default mount options:    (none)
Filesystem state:         clean
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              366297088
Block count:              732565504
Reserved block count:     36622312
Free blocks:              266723411
Free inodes:              366282770
First block:              0
Block size:               4096
Fragment size:            4096
Reserved GDT blocks:      849
Blocks per group:         32768
Fragments per group:      32768
Inodes per group:         16384
Inode blocks per group:   512
Filesystem created:       Wed Dec 16 23:35:01 2009
Last mount time:          Tue May 27 08:41:04 2014
Last write time:          Tue May 27 08:41:04 2014
Mount count:              53
Maximum mount count:      -1
Last checked:             Wed Dec 16 23:35:01 2009
Check interval:           0 (<none>)
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:       128
Journal inode:            8
Default directory hash:   tea
Directory Hash Seed:      c024e605-e31a-4593-ad2c-db2d80272d59
Journal backup:           inode blocks
[root@skinner ~]# tune2fs -l /dev/lvm-raid2/lvm0 | grep type
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery sparse_super large_file
Filesystem OS type:       Linux

LVMはまた、下に取り付けられた機器のハンドルを維持します/dev/mapper

$ sudo mount  | grep lvm0
/dev/mapper/lvm--raid2-lvm0 on /export/raid1 type ext3 (rw)

したがって、その項目が/dev/<LVM VG>/<LVM LV>

おすすめ記事