タグ

*あとで読むと機械学習に関するhsato2011のブックマーク (2)

  • 深層学習入門:画像分類(5)Attention 機構 | SBテクノロジー (SBT)

    こんにちは、データサイエンスチームの白石です。 前回は、マルチタスク学習を試してみて、犬分類器の精度向上を試みました。 結果としては、明確に改善した、と言い切れるほど大幅な改善はありませんでしたが、マルチタスクの導入によって精度が向上するケースも確認できました。 今回は、Attention 機構と呼ばれる仕組みを導入し、犬分類器の精度向上を試みます。 「機械学習導入支援サービス」の詳細はこちら Attention 機構とは何か Attention 機構は、現代の深層学習の花形と言える仕組みです。 Attention 機構というと、自然言語処理などでよく使われる技術だ、と思われる方もいらっしゃるかもしれません。歴史的には、Seq2Seq と呼ばれる自然言語処理などで使用されるリカレントニューラルネットワークベースのモデルに対して組み込まれ、大きな注目を集めました。近年では、機械翻訳のため

    深層学習入門:画像分類(5)Attention 機構 | SBテクノロジー (SBT)
    hsato2011
    hsato2011 2022/12/01
    Attention機構の説明
  • DQNの生い立ち + Deep Q-NetworkをChainerで書いた - Qiita

    はじめに そもそもDQNが作りたかったわけじゃなくて、他の目的でChainerを使いたかったのでその練習にDQNを書いたんですが、せっかくだし公開しようと思いました 公開しました 。またどうせ公開するなら、この機会にこれ(Q学習+関数近似)関連で持っている知識をついでに整理しようと思ってまとめました。 ニュース記事とかNatureとかNIPSの論文だけ読むと、DQN作ったDeepmind/Googleすげー!!!って感覚になりそうですが、強化学習的な歴史的経緯を考えると強化学習+深層学習になった、むしろかなり当然の成り行きで生まれた技術であることがわかります。(ATARIのゲームを人間以上のパフォーマンスでプレイするというのがビジュアル的にわかりやすかった$\leftrightarrow$問題設定が良かったというのもあります。) この記事ではNIPSとNatureの以下の2の論文 ・ V

    DQNの生い立ち + Deep Q-NetworkをChainerで書いた - Qiita
    hsato2011
    hsato2011 2016/10/27
    Q-learningの強化学習の収束条件は、真の価値関数に近づいてるか(差)を条件とする。
  • 1