[DL Hacks]BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Recurrent neural networks are nowadays successfully used in an abundance of applications, going from text, speech and image processing to recommender systems. Backpropagation through time is the algorithm that is commonly used to train these networks on specific tasks. Many deep learning frameworks have their own implementation of training and sampling procedures for recurrent neural networks, whi
既存の日本語述語項構造解析では,形態素解析や構文解析を行い,それらの情報に基づいて各述語の項を予測していた.しかし,パイプライン処理に起因する誤り伝搬や,人手による素性設計コストの上昇などが問題点となっている.本研究では,深層リカレントニューラルネットワークを利用し,単語などの表層情報のみを用いて述語項構造解析を行う手法を提案する. また,複数の述語を同時に考慮して述語構造解析の精度を向上させるために,述語ごとのモデルをグリッド上に連結した深層リカレントグリッドモデルを提案する.NAIST テキストコーパスを用いた実験の結果,これまでに報告されている最先端の日本語述語項構造解析器の精度を上回ることを確認した.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く