タグ

LSTMに関するyubessyのブックマーク (5)

  • How to handle variable length inputs (sentences)

  • 文字ベース言語モデルの作り方 - Ahogrammer

    最近の言語処理では言語モデルを使って転移学習をしたり、性能向上に役立てたりするようになってきました。言語モデルの1つであるELMoでは、言語モデルから得られる分散表現を他のタスクの入力に使うことで、質問応答や固有表現認識、評価分析といった様々なタスクの性能向上に役立つことを示しました。ELMoについては以下の記事で詳しく紹介されています。 kamujun.hatenablog.com よくある言語モデルでは単語単位で学習を行うのですが、文字単位で学習することもできます。そのメリットとしては、文字単位の言語モデルは単語と比べてボキャブラリ数が少ないため学習が高速に進むことや未知語が少ない事が挙げられます。 記事では文字ベースの言語モデルの作り方について紹介しようと思います。言語モデルを作成し学習したあとは学習したモデルを使ってテキストを生成して見るところまでやってみます。この記事を読むと以

    文字ベース言語モデルの作り方 - Ahogrammer
  • LSTMネットワークの概要 - Qiita

    Christopher Olah氏のブログ記事 http://colah.github.io/posts/2015-08-Understanding-LSTMs/ の翻訳です。 翻訳の誤りなどあればご指摘お待ちしております。 リカレントニューラルネットワーク 人間は毎秒ゼロから思考を開始することはありません。このエッセイを読んでいる間、あなたは前の単語の理解に基づいて、各単語を理解します。すべてを捨てて、またゼロから思考を開始してはいません。あなたの思考は持続性を持っています。 従来のニューラルネットワークは、これを行うことができません、それは大きな欠点のように思えます。たとえば、映画の中の各時点でどのような種類の出来事が起こっているかを分類したいと想像してください。従来のニューラルネットワークが、映画の前の出来事についての推論を後のものに教えるためにどのように使用できるかは不明です。 リ

    LSTMネットワークの概要 - Qiita
  • わかるLSTM ~ 最近の動向と共に - Qiita

    Machine Learning Advent Calendar 2015 第14日です。去年のAdvent Calendarで味をしめたので今年も書きました。質問、指摘等歓迎です。 この記事の目的 ここ2~3年のDeep Learningブームに合わせて、リカレントニューラルネットワークの一種であるLong short-term memory(LSTM)の存在感が増してきています。LSTMは現在Google Voiceの基盤技術をはじめとした最先端の分野でも利用されていますが、その登場は1995年とそのイメージとは裏腹に歴史のあるモデルでもあります。ところがLSTMについて使ってみた記事はあれど、詳しく解説された日語文献はあまり見当たらない。はて、どういうことでしょうか。 記事ではLSTMの基礎をさらいつつ、一体全体LSTMとは何者なのか、LSTMはどこに向かうのか、その中身をまとめ

    わかるLSTM ~ 最近の動向と共に - Qiita
  • BESOM(ビーソム)ブログ LSTM 、ちょっとだけ理解を試みる

    BESOM(ビーソム)は、ベイジアンネットを用いて大脳皮質の情報処理を再現する機械学習アルゴリズムです。BESOMに関連する研究者向けの情報発信をしていきます。(内容は個人の意見であり所属する組織の見解ではありません。) 時系列データを学習するニューラルネットの一種、 LSTM について、 ちょっとだけ理解しようと試みたので、自分用のメモをここに書いておきます。 「Long Short-Term Memory in Recurrent Neural Networks」 http://www.felixgers.de/papers/phd.pdf ドイツ Hannover 大、 FELIX GERS の Thesis, 2001 。 p.11 に「従来の(初期の)LSTM」の全体像が書かれている。 が、メモリブロックが1つに省略されているので全体像が分かりにくい。 (RNNの中間層の各ユニッ

  • 1