次の容量のハードドライブを選択しました。
1 TB
500 GB
320 GB
250 GB
私はすべてのデータのコピーが常に私が持っている4つのドライブのうち2つにあるという意味でRaid1を作成したいと思います。問題は、すべてのドライブの容量が異なることです。過去にはmdadmから移行し、通常のRaid1 mdadm 2x 2TB、Btrfs、および2x 2TBを実行しました。 mdadm、Btrfs、またはZFSについては何もわかりませんが、もう一度使用してもかまいません。
この基準を満たす最も適切なファイルシステムまたはユーティリティは何ですか?
- ディスクが破損してもデータが失われないように、常に2つのファイルのコピーを保持します。
- できるだけ多くの空き容量を確保し、まだポイント1の基準を満たしています。
何を使うべきですか? Btrfs Raid1がこの問題を処理し、4つのハードドライブすべてに各ファイルの2つのコピーを持つことになると感じますが、わかりません。私のLinuxは、カーネル5.10がインストールされているAMD64コンピュータで実行されています。
どんな提案でも歓迎します。
編集 - 解決策!
あなたのすべての答えに心から感謝します!だから私はBtrfs Raid1の設定をしました。これは時間のかかるプロセスでしたが、すでにBtrfsに慣れていて毎日使用していたので、非常に苦痛ではありませんでした。 Raid1は、冗長率2を維持しながら物理空間を失うことはないと思います。私はこの電卓を使用しました:https://carfax.org.uk/btrfs-usage/
マイデバイスサイズ:
931.51 GiB
465.76 GiB
298.09 GiB
232.89 GiB
Total space for files in Raid1 mode: 963 GiB (all space used)
Total space for files in Raid5 mode: 995 GiB (466 GiB unusable on biggest drive)
Raid1には719.5GiBのデータが保存され、241.6GiBの空き容量があり、合計961.1GiBになり、これは計算機に表示されているものと一致します。後で自由にドライブを追加/削除できます。素晴らしい。
Raid1の2倍に比べて理論的に読み取り速度が4倍向上したので、Raid5を使いたいと思います。しかし、まだ実験段階なので、日常的に使用するには適していないと聞きましたか? 5.10 カーネルの状態はどうですか?これを使って経験を共有できる人はいますか?
アレイを構築し、すべてのドライブを1つずつ追加し、すべてのデータをここに移行した後(バックアップあり)、完全なクリーンアップを実行しましたが、すべてが正常でした。
$ sudo btrfs scrub start -Bd /home
Scrub device /dev/sda (id 1) done
Scrub started: Thu Jun 17 10:10:38 2021
Status: finished
Duration: 2:38:51
Total to scrub: 724.03GiB
Rate: 77.53MiB/s
Error summary: no errors found
Scrub device /dev/sdd (id 2) done
Scrub started: Thu Jun 17 10:10:38 2021
Status: finished
Duration: 1:52:39
Total to scrub: 374.03GiB
Rate: 56.57MiB/s
Error summary: no errors found
Scrub device /dev/sdc (id 3) done
Scrub started: Thu Jun 17 10:10:38 2021
Status: finished
Duration: 0:48:06
Total to scrub: 207.00GiB
Rate: 73.09MiB/s
Error summary: no errors found
Scrub device /dev/sdb (id 4) done
Scrub started: Thu Jun 17 10:10:38 2021
Status: finished
Duration: 0:30:00
Total to scrub: 143.00GiB
Rate: 80.89MiB/s
Error summary: no errors found
とても嬉しいです!
編集 - @MarcusMüllerによるコメント:
「注:本当にこれが必要ですか?320GBおよび250GBドライブはそれほど新しいものではないかもしれません(...)」
あなたは正しいです。これは非常に古いドライブです!過去数年間で、Btrfs Raid1で使用されている2TB Seagate Barracuda Computeドライブ2台を取り外し、このランダムな古いドライブ4台を配置しました。 Barracudasは完全な信頼性を必要とする私のサーバーに接続します。 /そこ(Ext4 mdadm)用に2つのSSD 250GBとECC RAM付き/homeおよび/var(Btrfs Raid1)用に2つのHDD TBがあります。 Btrfs Raid1 モードまたは Raid10 または Raid5 の場合、2 つの Barracuda が最初の 2 つに追加されます。
4つの古いドライブが私のデスクトップにあり、これには次のものが含まれます。
Western Digital Blue Mobile, WDC WD10JPVX-60JC3T0
[1.00 TB, 4K sectors, SATA 3.0, 6.0 Gb/s, 5400 RPM, 2.5"]
Power_On_Hours 2496
Toshiba 2.5" HDD MK..65GSX, TOSHIBA MK5065GSX
[500 GB, 512 sectors, SATA 2.6, 3.0 Gb/s, 5400 RPM, 2.5"]
Power_On_Hours 2519
Seagate Momentus Thin, ST320LT007-9ZV142
[320 GB, 4K sectors, SATA 2.6, 3.0 Gb/s, 7200 RPM, 2.5"]
Power_On_Hours 5152
Seagate Barracuda 7200.12,ST3250318AS
[250 GB, 512 sectors, SATA 2.6, 3.0 Gb/s, 7200 RPM, 3.5"]
Power_On_Hours 6591
信頼性は実際には問題ではありません。バックアップがありますが、あまりにも早く痛みを伴う驚きを望んでいないため、2.0の基本的な冗長性で問題を解決できます。
ベストアンサー1
各ドライブには1つのLVM物理ボリュームが必要です。
pvcreate /dev/drive1 /dev/drive2 /dev/drive3 /dev/drive4
次に、ボリュームグループを作成します。
vgcreate myvolumegroup /dev/drive1 /dev/drive2 /dev/drive3 /dev/drive4
最後に、各ブロックにミラーがあるという属性を使用して論理ボリュームを作成します。
lvcreate --mirrors 1 -l100%FREE -n myvolume myvolumegroup
おめでとうございます!これで利用可能なブロックデバイスが作成されました。どのbtrfsやXFSなどの望ましいファイルシステム:
mkfs.xfs /dev/myvolumegroup/myvolume
mount /dev/myvolumegroup/myvolume /mnt
動作する必要があります。
注: あなたは確かにこれをしたいですか? 320 GBと250 GBのドライブはあまり新しいものではない可能性があります。ここに非常に古いドライブを含めると、(160 + 125)GB = 285 GBの追加ストレージのみを取得できます。
古いドライブを使用することは、RAID1を起動する理由であるデータの可用性と正反対です。また、RAID5の使用を検討してください(役に立つman lvmraid
可能性があります)。