まず、私が実行していることから始めましょう。 Ubuntu 16.10を実行しているホームメディアサーバー。 6TBミラーリングドライブのプールが半分に満ちています。私はこのシステムを約1ヶ月前に構築しましたが、うまく機能しています。 SSDを起動ドライブとして使用し、前述のストレージプールを使用します。私はこのプールで私がしなければならないすべてのことをすることができたし、すべてが素敵に見えます。
約1ヶ月前にシステムを構築したとき、両方のドライブは新製品であり、そのうちの1つの追加の振動が少し気になりました。悪くないのに売り手が無料で交換してくれるからといってスクラブをして抜いて送ろうとするのに待っている間性能が低下した状態で実行されます。バックアップされていないデータがないため、あまり心配することはありませんが、プールをシャットダウンしてバックアップから復元するよりも簡単になります。
今私が本当にやりたいことは、スクラブを実行し、ミラーからドライブを安全に取り外すことです。私は走る
zpool scrub tank
その後すぐに実行
zpool status
スクラブプロセスが進行するのを見ることができます。数秒ごとに更新を実行すると、状態が正しく更新されていることがわかります。約 30 秒間実行した後、ステータスには実行されていないと表示されません。そして、0時間0分で完了した最後の整理以外は他の状態を見たことがありません。私にとって、これはクリーンアップがまだ完了していないことを意味します。クリーンアップが2.5テラバイトの情報を処理するのに少なくとも数時間かかることはありません。
私は何を見逃していますか?
要求された情報を追加します。
pool: Tank
state: ONLINE
scan: scrub repaired 0 in 0h0m with 0 errors on Sun Feb 5 00:31:42 2017
config:
NAME STATE READ WRITE CKSUM
Tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
sdc2 ONLINE 0 0 0
errors: No known data errors
今、問題がまだ存在するかどうかを確認するために再スクラブを試みます。始めてから20秒ほどになったのに..
pool: Tank
state: ONLINE
scan: scrub in progress since Fri Feb 10 14:25:12 2017
62.5M scanned out of 2.97T at 1.08M/s, (scan is slow, no estimated time)
0 repaired, 0.00% done
config:
NAME STATE READ WRITE CKSUM
Tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
sdc2 ONLINE 0 0 0
errors: No known data errors
1分ほど過ぎて再び現れました...
pool: Tank
state: ONLINE
scan: scrub repaired 0 in 0h1m with 0 errors on Fri Feb 10 14:27:01 2017
config:
NAME STATE READ WRITE CKSUM
Tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
sdc2 ONLINE 0 0 0
errors: No known data errors
2017年2月16日情報追加修正
「騒々しい」ドライブを取り戻す時間がなくなったので、取り出しました。私は(システムの起動時に)プラグを抜く以外は何もしませんでした。現在予想通りパフォーマンスが低下した状態ですが、すべてが正常に実行され続けます。私はそれを始めて以来、私の経験をここに記録し続けるべきだと思いました。この問題を経験する人は誰もいないようです。同じ状況にある他の人をオンラインで見つけることができないようです。幸運な日。交換用ドライブを購入して再びシルバー処理するとどうなるかを見てみましょう。誰が知っていますか? :/ 以下はドライブを切断した後の出力です。
pool: Tank
state: DEGRADED
status: One or more devices could not be used because the label is missing or
invalid. Sufficient replicas exist for the pool to continue
functioning in a degraded state.
action: Replace the device using 'zpool replace'.
see: http://zfsonlinux.org/msg/ZFS-8000-4J
scan: scrub repaired 0 in 0h1m with 0 errors on Sun Feb 12 00:24:38 2017
config:
NAME STATE READ WRITE CKSUM
Tank DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
sdb2 ONLINE 0 0 0
sdc2 UNAVAIL 0 0 0
errors: No known data errors
2017年3月29日情報追加修正
root@NAS:~# zpool status
pool: Tank
state: ONLINE
status: One or more devices has experienced an unrecoverable error. An
attempt was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or replace the device with 'zpool replace'.
see: http://zfsonlinux.org/msg/ZFS-8000-9P
scan: resilvered 525M in 0h3m with 0 errors on Wed Mar 29 14:28:46 2017
config:
NAME STATE READ WRITE CKSUM
Tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdb2 ONLINE 0 0 0
sdc ONLINE 0 0 732
errors: No known data errors
問題について別の手がかりがあるでしょうか? sdcパーティションを見てください...
root@NAS:/dev# parted --list
Model: ATA Samsung SSD 850 (scsi)
Disk /dev/sda: 250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 538MB 537MB fat32 EFI System Partition boot, esp
2 538MB 233GB 232GB ext4
3 233GB 250GB 17.1GB linux-swap(v1)
Warning: Not all of the space available to /dev/sdb appears to be used, you can
fix the GPT to use all of the space (an extra 7 blocks) or continue with the
current setting?
Fix/Ignore? i
Model: ATA HGST HUH728060AL (scsi)
Disk /dev/sdb: 6001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 2097kB 2150MB 2147MB
2 2150MB 6001GB 5999GB zfs
Model: ATA HGST HUH728060AL (scsi)
Disk /dev/sdc: 6001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 6001GB 6001GB zfs zfs-802af6a53a6d8383
9 6001GB 6001GB 8389kB
2017年4月13日情報追加修正
はい、私は数ヶ月間この問題を解決しようとしてきました。 :/
最初にエクスポート/インポートドライブ文字を変更した後、sdbはsdc、sdcはsddになることに注意してください。
問題を見つけたと思います。、回避策についてのアドバイスを聞きたいです。 「sudo fdisk -l」を実行したところ、ついに問題が見つかりました。関連クリップはこんな感じです...
Disk /dev/sdc: 5.5 TiB, 6001175126016 bytes, 11721045168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 7127FE7D-E061-11E6-BD1F-3497F600DDAF
Device Start End Sectors Size Type
/dev/sdc1 4096 4198399 4194304 2G FreeBSD swap
/dev/sdc2 4198400 11721043967 11716845568 5.5T FreeBSD ZFS
...
Disk /dev/sdd: 5.5 TiB, 6001175126016 bytes, 11721045168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: E799A1D5-F9B7-C843-AB62-AADC9B0A2180
Device Start End Sectors Size Type
/dev/sdd1 2048 11721027583 11721025536 5.5T Solaris /usr & Apple ZFS
/dev/sdd9 11721027584 11721043967 16384 8M Solaris reserved 1
注:画像は元々FreeNAS(FreeBSD)から作成されました。 sdcにはドライブの先頭に2Gスワップがあります。 sddはUbuntuで作成され、何らかの理由でドライブの最後に8Mスワップスペースが割り当てられました。
今問題が破損したドライブであることを恐れてsddをオフラインにして、そこからバッドブロックを実行しました。これにより、すべての情報が削除されます。良いニュースは、ドライブが良好で不良ブロックがないことです。これにより、パーティションも空の状態にリセットされます。
私には2つの選択肢があります。 1.)sddのパーティションを作業ドライブ(sdc)と手動で一致させてください。 zfsはzpoolの交換を実行して自動的にこれを行うと思いますが、たぶんこれはただ時間の無駄です。 2.)両方のドライブを消去し、最初から始めて新しいイメージを作成し、デフォルトのUbuntuプールにするためにデータをバックアップしました。
あまりにも過度の考えかもしれませんが、より大きなダメージと回復の危険があると思います。ミラー化されていないディスクにのみバックアップされた良好なデータを削除し、新しく作成されたプールに再同期する必要があります。参考までに、rsyncを使用してバックアップを作成しましたが、同じコンピュータにあります。すべてのデータを収容するために、冗長性なしに3つのドライブを取り外す必要がありました。このようにデータを整理できないまま移すと、私が知らない被害を受ける可能性があるという心配もあります。
誰でもどんな提案がありますか?ありがとうございます!