タグ

deep-learningとsoftmax-functionに関するnabinnoのブックマーク (2)

  • ソフトマックス関数 - Wikipedia

    ソフトマックス関数(ソフトマックスかんすう、英: softmax function)は、ロジスティック関数を多次元に拡張したもの。ネットワークの出力を確率分布に変換することができるので、ニューラルネットワークの最後の活性化関数としてよく用いられる。 定義[編集] ソフトマックス関数は、K 個の実数からなるベクトル z を入力として受け取り、入力の指数に比例する K 個の確率で構成される確率分布に正規化する。つまり、ソフトマックス関数を適用することで、各成分は区間 (0, 1) に収まり、全ての成分の和が 1 になるため、「確率」として解釈できるようになる。入力値が大きいほど「確率」も大きい。 K > 1 に対し、標準(単位)ソフトマックス関数 は次のように定義される。 簡単に言えば、入力ベクトルの の各成分 に標準的な指数関数を適用し、これらすべての指数の合計で割ることによって、値を正規化

  • Softmax function - Wikipedia

    The softmax function, also known as softargmax[1]: 184  or normalized exponential function,[2]: 198  converts a vector of K real numbers into a probability distribution of K possible outcomes. It is a generalization of the logistic function to multiple dimensions, and used in multinomial logistic regression. The softmax function is often used as the last activation function of a neural network to

    Softmax function - Wikipedia
  • 1