iostatおよびLinuxソフトウェアRAIDについて

iostatおよびLinuxソフトウェアRAIDについて

私はで見ている内容iostat、特にmdデバイスとsdデバイスの出力の違いを理解しようとしています。

私は、E3-1230 CPU、16GB RAM、4つの2TB SATAディスクドライブを備えたかなり大きなCentos Linuxサーバーを複数持っています。ほとんどはJBODですが、1つの構成はソフトウェアRAID 1+0です。サーバーの種類と負荷容量は非常に似ていますが、%utilSoftware Raidから得られた数値はiostat他のサーバーよりはるかに高く、その理由を理解しようとしています。すべてのサーバーのCPUアイドル率は通常80〜90%です。

iostatRAIDなしのサーバーの例:

平均 CPU: %user %nice %system %iowait %steal %idle
           9.26 0.19 1.15 2.55 0.00 86.84

デバイス: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz svctm %util 待機
深セン開発銀行2.48 9.45 10.45 13.08 1977.55 1494.06 147.50 2.37 100.61 3.86 9.08
サウスダコタ4.38 24.11 13.25 20.69 1526.18 1289.87 82.97 1.40 41.14 3.94 13.36
標準偏差0.06 1.28 1.43 2.50 324.67 587.49 232.32 0.45 113.73 2.77 1.09
標準偏差0.28 1.06 1.33 0.97 100.89 61.63 70.45 0.06 27.14 2.46 0.57
dm-0 0.00 0.00 0.17 0.24 4.49 1.96 15.96 0.01 18.09 3.38 0.14
dm-1 0.00 0.00 0.09 0.12 0.74 0.99 8.00 0.00 4.65 0.36 0.01
dm-2 0.00 0.00 1.49 3.34 324.67 587.49 188.75 0.45 93.64 2.25 1.09
dm-3 0.00 0.00 17.73 42.82 1526.17 1289.87 46.50 0.35 5.72 2.21 13.36
dm-4 0.00 0.00 0.11 0.03 0.88 0.79 12.17 0.00 19.48 0.87 0.01
dm-5 0.00 0.00 0.00 0.00 0.00 0.00 8.00 0.00 1.17 1.17 0.00
DM-6 0.00 0.00 12.87 20.44 1976.66 1493.27 104.17 2.77 83.01 2.73 9.08
dm-7 0.00 0.00 1.36 1.58 95.65 58.68 52.52 0.09 29.20 1.55 0.46

iostatRAID 1+0 を搭載したサーバーの例:

平均 CPU: %user %nice %system %iowait %steal %idle
           7.55 0.25 1.01 3.35 0.00 87.84

デバイス: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz svctm %util 待機
深セン開発銀行42.21 31.78 18.47 59.18 8202.18 2040.94 131.91 2.07 26.65 4.02 31.20
サウスダコタ44.93 27.92 18.96 55.88 8570.70 1978.15 140.94 2.21 29.48 4.60 34.45
平均海面上昇45.75 28.69 14.52 55.10 8093.17 1978.16 144.66 0.21 2.95 3.94 27.42
特殊データ45.05 32.59 18.22 58.37 8471.04 2040.93 137.24 1.57 20.56 5.04 38.59
md1 0.00 0.00 18.17 162.73 3898.45 4013.90 43.74 0.00 0.00 0.00 0.00
MD0 0.00 0.00 0.00 0.00 0.00 0.00 4.89 0.00 0.00 0.00 0.00
dm-0 0.00 0.00 0.07 0.26 3.30 2.13 16.85 0.04 135.54 73.73 2.38
dm-1 0.00 0.00 0.25 0.22 2.04 1.79 8.00 0.24 500.99 11.64 0.56
dm-2 0.00 0.00 15.55 150.63 2136.73 1712.31 23.16 1.77 10.66 2.93 48.76
dm-3 0.00 0.00 2.31 2.37 1756.39 2297.67 867.42 2.30 492.30 13.08 6.11

だから私の質問は次のようになります

%util1)RAIDのあるサーバーがRAIDのないサーバーよりも優れているのはなぜですか?

2)非RAIDサーバーで%utilチームとして構成された物理デバイス(sd *)は、チームで構成されたLVMデバイス(dm- *)とほぼ同じです。 RAIDサーバーではなぜそうではありませんか?

3)基本物理デバイス(sd *)が使用されていますが、ソフトウェアRAIDデバイス(md *)が実際にアイドル状態で表示されるのはなぜですか?最初はRAIDチェックで発生した可能性があると思いましたが、すべて/proc/mdadmが正常であることがわかりました。

編集:申し訳ありません。質問が明確だと思いましたが、少し混乱しているようです。明らかに問題は、%utilあるサーバーのドライブ間の違いではなく、1つのサーバーの合計/平均が他のサーバーの%util合計/平均となぜそんなに異なるのかということです。すべての誤解が解決されることを願っています。

ベストアンサー1

非RAID

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
dm-3              0.00     0.00   17.73   42.82  1526.17  1289.87    46.50     0.35    5.72   2.21  13.36

攻撃

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
dm-2              0.00     0.00   15.55  150.63  2136.73  1712.31    23.16     1.77   10.66   2.93  48.76

avgrq-sz低いほどw/s高くなります。これは、小規模なI / O要求の数が多いことを示しています。したがって、I/O はより「任意」である可能性があります。より多くのディスクナビゲーション= I/O速度低下

おすすめ記事