やあみんな、畳み込んでるかな? 今日はMicrosoft先生が昨年発表した152層というノイローゼのような超深層のニューラル・ネットワークの話をしよう。 GoogLeNetが、Inceptionモジュールという組を作って、Inceptionモジュールごとにlossを逆伝播させてやることで層を深くしていたことはみんなもよく知っていると思う。 これがInceptionモジュール Pervious layerから入力された特徴が1x1の畳み込みや3x3の畳み込みを経由して最終的には統合される。 これをノイローゼのように繰り返し繰り返し深くしていって、38層という非常に深いネットワークを構築している。 図で黄色で表されたところがSoftmax層で、要はここで推定しているわけだから、lossを返すのはこの三箇所ということになる。 GoogLeNetは層が深い割には計算量が少ない。そのかわり、学習させ