タグ

deep-learningとramp-functionに関するnabinnoのブックマーク (2)

  • ランプ関数 - Wikipedia

    ランプ関数のグラフ ランプ関数(英: ramp function)とは、一変数の実関数であり、独立変数とその絶対値の平均として容易に求められる。区分線形関数。 この関数は工学において(DSPの理論など)応用を持つ。"ramp function"の名は、グラフの形状が傾斜路(英: ramp)に似ていることに由来する。 定義[編集] ランプ関数 R(x) : R → R には幾つかの同値な定義が存在する。 場合分け 指数 1 の切断冪関数 最大値関数 傾きが1の直線とその絶対値との平均[1] 傾きが1の直線とヘビサイド関数との積 ヘビサイド関数とそれ自身の畳み込み ヘビサイド関数の積分 マコーレーの括弧 解析的性質[編集] 非負性[編集] ランプ関数は定義域全体で非負となる。 そのため、関数の値はその絶対値に等しい。 導関数[編集] ランプ関数の導関数はヘビサイド関数に等しい。 二階導関数[編

    ランプ関数 - Wikipedia
  • [活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?

    連載目次 用語解説 AI機械学習のニューラルネットワークにおけるReLU(Rectified Linear Unit、「レルー」と読む)とは、関数への入力値が0以下の場合には出力値が常に0、入力値が0より上の場合には出力値が入力値と同じ値となる関数である。 図1に示すように、座標点(0, 0)を基点として、ランプ(ramp: 例えば高速道路に入るための上り坂などの「傾斜路」のこと)型曲線のグラフになるため、「ランプ関数」(ramp function)とも呼ばれる。 ニューラルネットワークの基礎となっている情報処理モデル「パーセプトロン」(後日解説)では「ステップ関数」という活性化関数が用いられ、「バックプロパゲーション」(後日解説)が登場してからは「シグモイド関数」が活性化関数として使われるようになった。 しかしディープニューラルネットワークでは、層が深くなるにつれ勾配が消えてしまう勾配

    [活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?
  • 1