エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【論文要約】TABERT: Pretraining for Joint Understanding of Textual and Tabular Data - Qiita
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【論文要約】TABERT: Pretraining for Joint Understanding of Textual and Tabular Data - Qiita
【論文要約】TABERT: Pretraining for Joint Understanding of Textual and Tabular Data論文読み 概要 ... 【論文要約】TABERT: Pretraining for Joint Understanding of Textual and Tabular Data論文読み 概要 本論文では、NL文と(半)構造化テーブルの表現を合同で学習する事前学習済みLMであるTABERTを紹介する。TABERTは2600万個の表とその英語文脈からなる大規模なコーパスで学習される。実験では、TABERTを特徴表現層として用いたニューラル意味解析器が、弱教師あり意味解析ベンチマークであるWIKITABLEQUESTIONSで最良の結果を達成し、テキストtoSQLデータセットのSPIDERでも競争力のある性能を発揮することが分かった。 ACL 2020 第一著者:Pengcheng Yin 団体:Carnelgie Mellon University, Facebook AI Research 提案法 Content
2024/05/03 リンク