次の TensorFlow 関数では、最終層の人工ニューロンの活性化にフィードする必要があります。それは理解しています。しかし、なぜそれが logits と呼ばれるのか理解できません。それは数学関数ではないのですか?
loss_function = tf.nn.softmax_cross_entropy_with_logits(
logits = last_layer,
labels = target_output
)
ベストアンサー1
Logits は、さまざまな意味を持つことができる多義的な用語です。
数学では、ロジット[0, 1]
は確率( )をR((-inf, inf)
)にマッピングする関数である。
確率 0.5 はロジット 0 に対応します。負のロジットは 0.5 未満の確率に対応し、正のロジットは 0.5 を超える確率に対応します。
MLでは、できる
分類モデルが生成する生の(正規化されていない)予測のベクトル。これは通常、正規化関数に渡されます。モデルがマルチクラス分類問題を解く場合、ロジットは通常、ソフトマックス関数への入力になります。次に、ソフトマックス関数は、可能性のあるクラスごとに 1 つの値を持つ(正規化された)確率のベクトルを生成します。
ロジットも 時々シグモイド関数の要素ごとの逆関数を参照します。