BLAS はどのようにしてこのような優れたパフォーマンスを実現しているのでしょうか? 質問する

BLAS はどのようにしてこのような優れたパフォーマンスを実現しているのでしょうか? 質問する

好奇心から、私は自分の行列乗算関数と BLAS 実装をベンチマークしてみることにしました... 控えめに言っても、その結果には驚きました。

カスタム実装、1000x1000 行列乗算の 10 回の試行:

Took: 15.76542 seconds.

BLAS 実装、1000x1000 行列乗算の 10 回の試行:

Took: 1.32432 seconds.

これは単精度浮動小数点数を使用しています。

私の実装:

template<class ValT>
void mmult(const ValT* A, int ADim1, int ADim2, const ValT* B, int BDim1, int BDim2, ValT* C)
{
    if ( ADim2!=BDim1 )
        throw std::runtime_error("Error sizes off");

    memset((void*)C,0,sizeof(ValT)*ADim1*BDim2);
    int cc2,cc1,cr1;
    for ( cc2=0 ; cc2<BDim2 ; ++cc2 )
        for ( cc1=0 ; cc1<ADim2 ; ++cc1 )
            for ( cr1=0 ; cr1<ADim1 ; ++cr1 )
                C[cc2*ADim2+cr1] += A[cc1*ADim1+cr1]*B[cc2*BDim1+cc1];
}

質問が2つあります。

  1. たとえば、行列と行列の乗算 nxm * mxn では n*n*m 回の乗算が必要なので、上記のケースでは 1000^3 または 1e9 回の演算が必要になります。2.6Ghz プロセッサで BLAS が 10*1e9 回の演算を 1.32 秒で実行できるのはなぜでしょうか。乗算が 1 回の演算で、他に何も行われなかったとしても、約 4 秒かかります。
  2. なぜ実装がこんなに遅いのでしょうか?

ベストアンサー1

良い出発点は素晴らしい本です行列計算プログラミングの科学著者:Robert A. van de Geijn、Enrique S. Quintana-Ortí。無料ダウンロード版も提供しています。

BLAS は 3 つのレベルに分かれています。

  • レベル 1 は、ベクトルのみを操作する線形代数関数のセットを定義します。これらの関数は、ベクトル化 (たとえば、SSE などの SIMD の使用) の恩恵を受けます。

  • レベル 2 関数は、行列ベクトル演算 (行列ベクトル積など) です。これらの関数は、レベル 1 関数に基づいて実装できます。ただし、共有メモリを備えたマルチプロセッサ アーキテクチャを使用する専用の実装を提供できれば、これらの関数のパフォーマンスを向上させることができます。

  • レベル3関数は、行列積のような演算です。レベル2関数で実装することもできますが、レベル3関数はO(N^2)データに対してO(N^3)演算を実行します。そのため、プラットフォームにキャッシュ階層がある場合は、専用の実装を提供すればパフォーマンスを向上させることができます。キャッシュ最適化/キャッシュフレンドリーこれは本の中でうまく説明されています。レベル 3 関数の主なブーストは、キャッシュの最適化によるものです。このブーストは、並列処理やその他のハードウェアの最適化による 2 番目のブーストを大幅に上回ります。

ちなみに、高性能 BLAS 実装のほとんど (またはすべて) は Fortran で実装されていません。ATLAS は C で実装されています。GotoBLAS/OpenBLAS は C で実装され、パフォーマンスが重要な部分はアセンブラで実装されています。BLAS のリファレンス実装のみが Fortran で実装されています。ただし、これらの BLAS 実装はすべて Fortran インターフェイスを提供しているため、LAPACK にリンクできます (LAPACK は BLAS からすべてのパフォーマンスを得ています)。

最適化されたコンパイラは、この点では小さな役割を果たします (GotoBLAS/OpenBLAS の場合、コンパイラはまったく重要ではありません)。

私の意見では、BLAS 実装では Coppersmith–Winograd アルゴリズムや Strassen アルゴリズムのようなアルゴリズムは使用されていません。考えられる理由は次のとおりです。

  • おそらく、これらのアルゴリズムのキャッシュ最適化実装を提供するのは不可能でしょう(つまり、勝つよりも負ける方が多いでしょう)
  • これらのアルゴリズムは数値的に安定していません。BLAS は LAPACK の計算カーネルであるため、これは使えません。
  • これらのアルゴリズムは理論上は優れた時間計算量を備えていますが、Big O 表記では大きな定数が隠されるため、非常に大きな行列に対してのみ実行可能になります。

編集/更新:

このテーマに関する新しい画期的な論文は、BLIS論文非常によく書かれています。私の講義「高性能コンピューティングのためのソフトウェアの基礎」では、彼らの論文に従って行列-行列積を実装しました。実際、私は行列-行列積のいくつかのバリエーションを実装しました。最も単純なバリエーションは、すべてプレーンなCで書かれており、コードは450行未満です。他のバリエーションはすべて、ループを最適化するだけです。

    for (l=0; l<MR*NR; ++l) {
        AB[l] = 0;
    }
    for (l=0; l<kc; ++l) {
        for (j=0; j<NR; ++j) {
            for (i=0; i<MR; ++i) {
                AB[i+j*MR] += A[i]*B[j];
            }
        }
        A += MR;
        B += NR;
    }

マトリックス-マトリックス製品の全体的なパフォーマンスのみこれらのループに依存します。時間の約 99.9% がここで費やされます。他のバリアントでは、パフォーマンスを向上させるために組み込み関数とアセンブラ コードを使用しました。すべてのバリアントを網羅したチュートリアルは、こちらでご覧いただけます。

ulmBLAS: GEMM (行列-行列積) のチュートリアル

BLIS の論文と併せて考えると、Intel MKL などのライブラリがどのようにしてこのようなパフォーマンスを実現できるのか、また、行優先ストレージと列優先ストレージのどちらを使用するかが問題にならない理由が簡単に理解できます。

最終的なベンチマークは次のとおりです (私たちはプロジェクトを ulmBLAS と呼びました)。

ulmBLAS、BLIS、MKL、openBLAS、Eigen のベンチマーク

別の編集/更新:

また、線形方程式の連立を解くなどの数値線形代数問題に BLAS がどのように使用されるかについてのチュートリアルもいくつか書きました。

高性能LU分解

(この LU 分解は、たとえば Matlab で線形方程式系を解くために使用されます。)

チュートリアルを拡張して、LU分解の非常にスケーラブルな並列実装を実現する方法について説明し、デモンストレーション する時間を見つけたいと思っています 。 プラズマ

はい、どうぞ:キャッシュ最適化並列LU分解のコーディング

PS: uBLAS のパフォーマンスを向上させるための実験もいくつか行いました。uBLAS のパフォーマンスを向上させるのは実はとても簡単です (そうです、言葉遊びです :) )。

uBLASに関する実験

同様のプロジェクトではブレイズ:

BLAZEの実験

おすすめ記事