Linuxの有線速度は遅いですが、Windowsの有線速度は最高速度です。 - 10Gbe

Linuxの有線速度は遅いですが、Windowsの有線速度は最高速度です。 - 10Gbe

Dellサーバーは2台あります。 1つはR720、もう1つはR730です。どちらもDellがサポートする4ポートドーターカードを持っています。両方のカードはRJ45のみをサポートし、(2)10Gbe +(2)1Gbeポートを持っています。一方のカードはIntel X540で、もう一方のカードはQualcomm 57800です。どちらのカードにも最新のファームウェアと最新のDellサポートドライバがあります。 10Gbeポートは直接イーサネットと短くて短いCat 7ケーブルを使用します。どちらのシステムも完全に更新されました。

LinuxシステムでSMB共有を作成し、サポートされているRHEL 8.5サブスクリプションバージョンを実行した後、Windowsサーバー間で最大10Gbeの速度(アップロードとダウンロードの両方で約1.0〜1.3GB / sの転送速度)が得られました。 RHELシステム(より新しく、高速でリソース集約的なR730)では、1Gbeを超える何も得られませんでした(ほとんど67-68MB/s程度でした)。 Linuxシステムでは、Windows R720からアップロードまたはダウンロードすることに違いはありません。

これが最も重要です。私は2台のコンピュータ間のドーターカードを交換し、イーサネット接続を完全に再構築し、ドライバを更新し、Linuxボックスのスペアカードを調整するために数日を費やしました。私が得た最高の持続速度は約72MB / sでした。奇妙なことは、MTUをジャンボフレーム用9000から標準用1500に減らすと、最高のパフォーマンスが80-90MB / sまで上昇する可能性があることです。複数のファイルを転送すると、持続転送速度は140 MB / sで表示されます。 MTUは小さいです。ジャンボフレームを使用すると、シングルスレッドのように動作し、しばらくの間「持続」します。これはRSSが機能していないかのように機能し、拡張用に割り当てられた16個のCPUではなく、1個のCPUを介して単一スレッドとして機能します。

混乱しています。 Red Hat、Fedora、またはCentOSで10Gbeカードを操作するのに問題がある人はいますか?これは本当に私を狂わせる!同様に、2つの異なるベンダーの2つの別々のカードと2つの異なるドライバを使用している場合は、まったく同じように機能します。 Red Hatのどこかにオペレーティングシステムの制限があるのとほぼ同じです。助ける!

このSASをSAS、NVMEからNVME、SAS-HDでSAS-SSDなどを実行しました。接続は同じ転送速度に制限されているようです... ARGGGhhhhhh!

eno1の設定:

Supported ports: [ TP ]
Supported link modes:   100baseT/Half 100baseT/Full
                        1000baseT/Full
                        10000baseT/Full
Supported pause frame use: Symmetric Receive-only
Supports auto-negotiation: Yes
Supported FEC modes: Not reported
Advertised link modes:  100baseT/Half 100baseT/Full
                        1000baseT/Full
                        10000baseT/Full
Advertised pause frame use: Symmetric Receive-only
Advertised auto-negotiation: Yes
Advertised FEC modes: Not reported
Link partner advertised link modes:  100baseT/Full
                                     1000baseT/Full
                                     10000baseT/Full
Link partner advertised pause frame use: Symmetric Receive-only
Link partner advertised auto-negotiation: Yes
Link partner advertised FEC modes: Not reported
Speed: 10000Mb/s
Duplex: Full
Auto-negotiation: on
Port: Twisted Pair
PHYAD: 17
Transceiver: internal
MDI-X: Unknown
Supports Wake-on: g
Wake-on: d
    Current message level: 0x00000000 (0)
Link detected: yes

driver: bnx2x (Previous Intel Card used IXGBE driver - IDENTICAL issues!)
version: 1.713.36-0 storm 7.13.15.0
firmware-version: FFV15.15.08 bc 7.14.16 phy 1.45

これら2つのカードは次のとおりです。

BRCM 10G/GbE 2+2P 57800-t rNDC ||インテル(R) 2P X540/2P I350 rNDC

サーバー用Dell 4ポートRJ45 2個。

もう一度、コンピュータ間でカードを交換し、Linuxイーサネット接続を完全に再構築し、両方のコンピュータがまったく同じように動作することに注意してください。 Windows Serverの速度は最大ライン速度に達しますが、Linuxの速度は非常に遅いです。 1Gbe(500Mbeに近い)に過ぎません。 500Mbのインターネット接続がありますが、1Gbeポートで動作しています。

ベストアンサー1

最初の問題は、Windows SMBの制限(クライアントまたはサーバーのバージョン)に関連しています。リソースを節約するために、マイクロソフトはSMBの制限と制限されたMTUを追加しました。以下は、Microsoftの改訂された発表情報です。

  • SMBv3以上の場合は、SMBマルチチャンネルが有効で正しく機能していることを確認してください。
  • SMB(Windows)クライアントは、SMBで大規模MTUを有効にし、帯域幅調整を無効にします。これを行うには、次のコマンドを実行します(WindowsではPowerShellを使用)。

SmbClientConfiguration 設定 -EnableBandwidthThrotdling 0 -EnableLargeMtu 1

https://docs.microsoft.com/en-us/windows-server/storage/file-server/troubleshoot/slow-file-transfer

Linux RHEL 8では、すべてのWin共有をCIFSとしてマウントしましたが、それをSAMBA共有に設定するのが最善の方法です(CIFSがSAMBAバリアントにもかかわらず)。私はこのガイドラインを使用するのは簡単だからです。

https://linuxize.com/post/how-to-mount-cifs-windows-share-on-linux/

===========

結果:

NVMEからNVMEまでのドライブを除くすべてのドライブは最大ライン速度です。 NVMEで設定した最大持続速度は500MB / sです。一般に、最大10Gbeの回線速度の場合、ほぼ2倍にする必要がありますが、しばらくはその程度を余裕があります。 SAS HDディスクtrxfrは175〜200MB / sです(時にはRAIDカードキャッシュを介して最大500MB / sまで可能です)。 SATA SSDからSAS SSDへの実行速度は約400〜500MB / sです。 NVMEは唯一残ったボトルネックです。時間が経つと、この問題を修正します。しかし今は500MB/sの持続速度に満足しています。

おすすめ記事