タグ

ブックマーク / jinbeizame.hateblo.jp (2)

  • 論文紹介 Understanding Batch Normalization - じんべえざめのノート

    今回は、NIPS2018に投稿されたUnderstanding Batch Normalizationという論文を読んだので、紹介していきたいと思います。この論文は、なぜバッチ正規化(Batch Normalization)が学習に効果的なのかを実証的なアプローチで検証した論文です。 この記事は、ニューラルネットワークの基礎(全結合層や畳み込み層)を理解している方を対象にしています。また、可能な限りバッチ正規化を知らない方でも理解できるようにしています。この記事を読み終わるころには、「なぜバッチ正規化が学習に効果的なのか」が分かるようになっています。 ニューラルネットの基礎は以下の記事で紹介しています。 ニューラルネットワーク入門 KelpNetCNN この記事は論文を要約したものに説明を加えたものとなっています。記事内で1人称で語られている文章については、多くが論文の主張となっています

    論文紹介 Understanding Batch Normalization - じんべえざめのノート
    ZAORIKU
    ZAORIKU 2018/09/24
  • KelpNetでVGG - じんべえざめのノート

    今回は、KelpNetでVGG(をスケールダウンしたもの)を実装していきます。VGGは、2014年のILSVRCという画像認識の大会で2位(1位はGoogleNetです)になったネットワークであり、代表的な畳み込みニューラルネットワークの1つです。 今回の記事は、ニューラルネットワークの基礎+CNN、KelpNetの概要を理解している方を対象にしています。この記事を読み終わるころには、「VGGの概要」「VGGの特徴」「CIFAR-10とKelpNetでの使い方」「KelpNetでのVGGの実装方法」が分かるようになっており、順番もこの説明で行っています。 ニューラルネットワークの基礎・KelpNetの概要は、それぞれ以下の記事で紹介しています。 ニューラルネットワーク入門 KelpNetCNN C#の深層学習ライブラリ「KelpNet」 また、今回用いたコードは全てこちらにあります。 V

    KelpNetでVGG - じんべえざめのノート
    ZAORIKU
    ZAORIKU 2018/09/04
  • 1