エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ELMo, BERT, USEを使って文章の異常検知をする - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ELMo, BERT, USEを使って文章の異常検知をする - Qiita
概要 以前に投稿した記事 Universal Sentence Encoderを使って文章の異常検知をする では、Universal Se... 概要 以前に投稿した記事 Universal Sentence Encoderを使って文章の異常検知をする では、Universal Sentence Encoder (USE)を用いて、夏目漱石の文章に混じった有価証券報告書の文章を見つけるというタスクを方向データの異常検知問題として扱いました。今回はUSEだけでなくELMoとBERTも用いて同種のタスクを解いて、3つのエンコーダーモデルを比較してみます。 日本語事前学習済みのELMoとBERTは、どちらもストックマークが公開しているモデルを使用します。 大規模日本語ビジネスニュースコーパスを学習したELMo(MeCab利用)モデルの紹介 大規模日本語ビジネスニュースコーパスを学習したBERT事前学習済(MeCab利用)モデルの紹介 環境 計算はすべてGoogle Colaboratory上で行いました。BERTはTensorFlow 1