エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
RNNが学習できるコンテクスト長についての考察
概要 本稿ではRNNが学習できるコンテクスト長について考察する。 「LSTMやGRUは素のRNNと比べて長期的な... 概要 本稿ではRNNが学習できるコンテクスト長について考察する。 「LSTMやGRUは素のRNNと比べて長期的なコンテクストを学習しやすい」と一般的に言われているが、具体的にどのような構造によってそのような性質を持つのか、また、どの程度「長期的な」コンテクストを学習できるのかについて数学的形式に基づいた洞察を得ることを目的とする。 本稿の成果は以下である。 各種RNNのアーキテクチャの特徴と各構成要素の機能について直感的な解釈を示した LSTMやGRUが素のRNNに比べて「長期的なコンテクストを学習しやすい」とする根拠について定義式に基づき議論した RNNの各種アーキテクチャについて まず、各種RNNのアーキテクチャごとの違いを整理する。 数学的表現および表記については[1]を参照した。 表記: t: 時系列のインデックス x_t: 入力信号の時系列 o_t: 出力信号の時系列 h_t: