タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

mlとnlpに関するtackmanのブックマーク (1)

  • 自然言語処理における、Attentionの耐えられない短さ - Qiita

    「あなたって、私の言葉の最後の方しか聞いてないのね」 実は人間だけでなくニューラルネットワークもそうだった、という結果を示しているのがこちらの論文です。 Frustratingly Short Attention Spans in Neural Language Modeling 言い訳としては「だって君の次の言葉を予測するだけならそれで十分だから」ということになるんですが、そう言うと角が立つのは人間関係においても研究においても同様のようです。 編は、上記の論文の紹介と共に他の関連論文も交えながら、実際の所当に最後の方しか必要ないのか、そうであればなぜそんなことになるのか、という所について見て行ければと思います。 なお、参照した論文は以下のGitHubで管理しています。日々更新されているため、研究動向が気になる方は是非Star&Watchをして頂ければと!。 arXivTimes At

    自然言語処理における、Attentionの耐えられない短さ - Qiita
    tackman
    tackman 2017/02/28
    音声や映像に比べると、自然言語でRNN的なものを使う必然性そんな高いか?というのは素人目には思わなくもないのも事実
  • 1