Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.
Deep Learningの理論的な側面にアプローチした論文*1。タイトル通り、なぜDeep Learningがうまくいくのか?を考えている。ただし個々のネットワークの構造やdropoutなどの学習テクニック、種々の勾配法のアルゴリズムには言及せず、もっと基礎的な部分をフォーカスしている。 ここで議論されている中心的な問いは なぜ少数のパラメータしか持たないニューラルネットワークでデータを表す関数を表現できるのか? なぜ層を深くすることが有効なのか? の2つ。 1つめについて、ここでは過学習や収束する時間は考えず、ネットワークが次の関数を近似できればOKとしている。 ここでは分類問題を想定していて、 がデータ、そしてがそのラベルを表している。十分な数のノードを持つニューラルネットワークは任意の関数を任意の精度で近似できる*2という定理があるので最初これは自明かと思ったけど、どうもそうではな
学習・評価だけでなく、ニューラルネットワークの設計までも可能なディープラーニングツールです。 グラフィカルなユーザーインターフェイス(GUI)による直感的な操作で、ディープラーニングをはじめましょう。 詳しくは下記サイトをご覧ください。 アプリケーションのダウンロードも下記サイトより行うことができます。 https://dl.sony.com/ja/ より詳しいNeural Network Consoleの特長はこちら Deep Learningの統合開発環境 Neural Network Consoleの特長 (2019/02) https://youtu.be/y_KGyxAwAic Deep Learningを基礎から学びたい方はこちら 再生リスト「Deep Learning入門」 https://www.youtube.com/playlist?list=PLg1wtJlhf
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く