エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
The Unreasonable Effectiveness of Recurrent Neural Networks 文字ごとのLSTMニューラルネット言語モデルでテキスト(シェークスピア)、Wikipediaページ、コード(Linuxのカーネル)などを自動生成する話 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
The Unreasonable Effectiveness of Recurrent Neural Networks 文字ごとのLSTMニューラルネット言語モデルでテキスト(シェークスピア)、Wikipediaページ、コード(Linuxのカーネル)などを自動生成する話 - Qiita
興味深い記事があったので備忘録の意味も込めて、翻訳しました。 間違いが多々あるかもしれませんが、そ... 興味深い記事があったので備忘録の意味も込めて、翻訳しました。 間違いが多々あるかもしれませんが、その点はご容赦を 内容は要約なので、詳しい内容を知りたい方は元記事をご覧下さい。 元記事 コード Recurrent Neural Networksは何がすごいか? 通常は固定長のベクトルの入力と固定長の出力のベクトルのみだった。 Recurrent Neural Networksはその制限が外れている点が優れている。 下記の例のように 左から(1)〜(5)とすると (1):Recurrent Neural Networksがないので固定長の入力と出力 (2):連続された出力(画像から文字列出力など) (3):連続された入力(翻訳:複数の英文入力からフランス語への翻訳など) (4):連続された入力と出力(ビデオを入力とし、出力がラベル付けされたビデオなど) (5):同期された連続入力と出力(ビデ