エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ニューラルネットワークの学習を部品(レイヤー)別にざっくり整理/活性化関数「Tanh」「Sigmoid」「ReLu」 - SE_BOKUのまとめノート的ブログ
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ニューラルネットワークの学習を部品(レイヤー)別にざっくり整理/活性化関数「Tanh」「Sigmoid」「ReLu」 - SE_BOKUのまとめノート的ブログ
目次 活性化関数をざっくりイメージ 活性化関数の整え方のアプローチ 役割1:単位をそろえて比較しやす... 目次 活性化関数をざっくりイメージ 活性化関数の整え方のアプローチ 役割1:単位をそろえて比較しやすくする 役割2:特徴を際立たせる アプローチによって相性のよいデータ が違う Neural Network Consoleのリファレンスで確認 グラフを見て役割をイメージ Pythonで各活性化関数を実装 活性化関数には有効範囲があります まとめ:活性化関数は特性を意識して使う 活性化関数をざっくりイメージ 活性化関数について、ざっくり整理します。 専門用語を極力使わず、多少の不正確さは目をつぶっても、なんとなくイメージできることを目標にして整理します。 まず、ニューラルネットワークで学習する流れをざっくり図にしてみました。 ニューラルネットワークの目的のひとつとして「既存の正解がわかっているデータで勉強(学習)して、未知のデータから、正解が導けるようになること」があります。 ポイントはどう