どうも、大阪DI部の大澤です。 汎用言語表現モデルBERTの日本語Wikipediaで事前学習済みのモデルがあったので、BERTモデルを使ったテキストの埋め込みをやってみたいと思います。 BERT日本語Pretrainedモデル - KUROHASHI-KAWAHARA LAB 以下のエントリではbert-as-serviceを使ったテキストの埋め込みを紹介しました。今回はBERTのリポジトリで公開されているextract_features.pyを使って、テキストの埋め込みを試します。 bert-as-serviceを使って日本語の文章を埋め込み表現ベクトルに変換してみる | DevelopersIO BERT(Bidirectional Encoder Representations from Transformers) BERTはGoogleが開発した汎用言語表現モデルです。機械学習で