エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
論文紹介: Linguistically-Informed Self-Attention for Semantic Role Labeling - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
論文紹介: Linguistically-Informed Self-Attention for Semantic Role Labeling - Qiita
論文紹介: Linguistically-Informed Self-Attention for Semantic Role Labeling自然言語処理DeepLearni... 論文紹介: Linguistically-Informed Self-Attention for Semantic Role Labeling自然言語処理DeepLearning論文読み tl;dr 自然言語処理のトップ会議であるEMNLP 2018のbest paperの1つ (4つ中) メインタスクのSemantic Role Labeling (SRL) と3つの関連タスク SRL: 誰が、誰に対して、何をしたかと言った情報を抽出 Predicate detection: 述語の特定 係り受け解析: 各語の係り受け関係を明らかにするタスク POS tagging: 品詞の特定 End-to-endで前述した4つタスクを学習/予測するマルチタスク深層学習を提案 Transformerによる特徴量抽出 POS taggingとPredicate detectionを、それらのラベルを組み