タグ

nnとニューラルネットに関するZAORIKUのブックマーク (2)

  • 線形層と比較した畳み込み層 - HELLO CYBERNETICS

    はじめに 全結合層 全結合層の数式 非全結合層 畳み込み層 入力成分のindexに着目した非全結合層 非全結合・重み共有層 1D畳み込み層 2Dの畳み込み層 最後に はじめに 今回はニューラルネットワークの基的な構成要素である線形(全結合)層と畳み込み層について簡単に説明します。 これを説明するモチベーションは、「畳み込み層は線形層よりも優れた発展的手法、複雑な手法であるという勘違いが 初学者の中であるのではないかと感じ、それの解消をするためです。 以降、畳み込み層と線形層の最たる違いを主張するために、線形層のことを全結合層と呼ぶことにします。 この呼び名は、TensorFlowやKerasなどのフレームワークで採用されています(layers.dense)。 全結合層 全結合層の数式 まず全結合層について数式を以下に示します。 入力ベクトル$x \in \mathbb R^{D}$に対し

    線形層と比較した畳み込み層 - HELLO CYBERNETICS
  • RとStanでニューラルネットワークモデル

    はじめに Rで確率的プログラミング言語STANが利用できる{rstan}パッケージ。 私は普段、ベイズ統計モデリングを行うために使っています。 今回は、rstanを使って多層ニューラルネット(フルコネクションの中間層2層)に挑戦する機会があったので、 備忘録としてまとめておこうと思います。 kerasやmxnetでやるよりも圧倒的に時間がかかります。圧倒的です。 一方で、係数やニューロンの値を事後分布として求めることが出来ます。テストデータのラベルも事後予測分布で求めます。 モチベーションは、この先に考えている「ネットワークのベイズ統計モデリング」にあります。 認知モデリングと組み合わせれば、神経活動のベイズ統計モデリングなんかができちゃうかもしれませんね。 現実的な時間内で求まる程度の小規模データならば、ですが。 参照元は Stanでニューラルネットの実装に関する議論です。コードがそのま

  • 1