タグ

rnnに関するZAORIKUのブックマーク (6)

  • Visualizing memorization in RNNs

    Inspecting gradient magnitudes in context can be a powerful tool to see when recurrent units use short-term or long-term contextual understanding. This connectivity visualization shows how strongly previous input characters influence the current target character in an autocomplete problem. For example, in the prediction of “grammar” the GRU RNN initially uses long-term memorization but as more cha

    Visualizing memorization in RNNs
    ZAORIKU
    ZAORIKU 2019/03/26
  • TensorFlowのRNNを追ってみる - 緑茶思考ブログ

    TensorFlowのRNN実装はサンプルが少なく、 かつそういったサンプルコードでは、 限定された一部のAPIしか使っていないなど全体を網羅しづらい感じがあるので、 なるべく全体感を思い出しやすいように、自分用にメモ。 (と言う割に基的なAPIしか使ってないが...) TensorFlowのRNNのAPIを使わないRNNの実装 まずは2(タイム)ステップだけ動作するRNNをつくる。 各ステップで入れるデータをX0, X1としてplaceholderをつくる。 各ステップでは、入力ユニット数(=4)にあたるデータを用意。 今回は隠れ層は1つとして、 唯一の隠れ層のユニット数は6。 n_inputs = 4 n_neurons = 6 X0 = tf.placeholder(tf.float32, [None, n_inputs]) X1 = tf.placeholder(tf.float

    TensorFlowのRNNを追ってみる - 緑茶思考ブログ
  • Skip-thoughtを用いたテキストの数値ベクトル化 - Platinum Data Blog by BrainPad

    こんにちは、アナリティクスサービス部の三浦です。 日はSkip-thoughtというアルゴリズムを用いた、テキストの数値ベクトル化についてご紹介したいと思います。 ■Skip-thoughtとは Skip-thoughtとはRyan Kirosらによって2015年に考案された、文書中の文の表現を数値ベクトル化する、深層学習のアルゴリズムです。アルゴリズムの特徴として教師なし学習であることが挙げられ、学習する際にラベル付けやアノテーションされたテキストは必要ありません。順序付けられた文で構成された文書*1さえ存在すれば、それを元に学習を行いモデルを構築することが可能です。 数年前に単語をベクトル化できるWord2vec*2が話題になりましたが、Skip-thoughtは単語ではなく文やフレーズをベクトル化すると思っていただくと、わかりやすいかと思います。 なおブログは、ある程度RNNや

    Skip-thoughtを用いたテキストの数値ベクトル化 - Platinum Data Blog by BrainPad
  • LSTMを超える期待の新星、QRNN - Qiita

    RNN「これってもしかして」 CNN「わたしたちのモデルが・・・」 「「入れ替わってる~~~!?」」 というわけでQRNN、QUASI-RECURRENT NEURAL NETWORKSとは、RNNの機構をCNNで「疑似的(QUASI)に」実装するというモデルです。これにより、既存のRNN(というかLSTM)が抱えていたいくつかの問題の解決を試みています。 元論文は以下となります。 QUASI-RECURRENT NEURAL NETWORKS 作者によるブログ 作者の方のブログにChainerのサンプルコードがあったので、それを元にTensorFlowで実装してみました。早く動かしたい!という方はこちらを見てみてください。 icoxfog417/tensorflow_qrnn (Starを頂ければ励みになります m(_ _)m) 記事では、この研究のモチベーションとそのアプローチについ

    LSTMを超える期待の新星、QRNN - Qiita
  • Computer, respond to this email.

    Posted by Greg Corrado*, Senior Research Scientist Machine Intelligence for You What I love about working at Google is the opportunity to harness cutting-edge machine intelligence for users’ benefit. Two recent Research Blog posts talked about how we’ve used machine learning in the form of deep neural networks to improve voice search and YouTube thumbnails. Today we can share something even wilder

    Computer, respond to this email.
  • The Unreasonable Effectiveness of Recurrent Neural Networks

    May 21, 2015 There’s something magical about Recurrent Neural Networks (RNNs). I still remember when I trained my first recurrent network for Image Captioning. Within a few dozen minutes of training my first baby model (with rather arbitrarily-chosen hyperparameters) started to generate very nice looking descriptions of images that were on the edge of making sense. Sometimes the ratio of how simpl

    The Unreasonable Effectiveness of Recurrent Neural Networks
  • 1