sklearnでは、線形カーネルを持つSVMモデルとloss=hingeを持つSGD分類器の違いは何ですか?質問する

sklearnでは、線形カーネルを持つSVMモデルとloss=hingeを持つSGD分類器の違いは何ですか?質問する

scikit-learn では、少なくとも 3 つの異なる方法で線形カーネルを使用して SVM 分類器を構築できることがわかります。

さて、最初の 2 つの分類子の違いは、前者は liblinear に基づいて実装され、後者は libsvm に基づいて実装されている点であることがわかります。

最初の 2 つの分類子は 3 番目の分類子とどう違うのでしょうか?

ベストアンサー1

最初の 2 つは常に完全なデータを使用し、これらのデータ ポイントに関して凸最適化問題を解決します。

後者はデータをバッチで処理し、最小化を目指して勾配降下法を実行する。期待されるサンプルがその分布の iid サンプルであると仮定して、サンプル分布に関する損失。

後者は、サンプル数が非常に多い場合や終了しない場合に通常使用されます。関数を呼び出してpartial_fit、データのチャンクを入力できることに注意してください。

お役に立てれば?

おすすめ記事