サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
GPT-4o
www.enoki-inc.co.jp
BERTを使用した文章ベクトル作成の記事では、日本語BERT学習済みモデルを使った日本語の文章ベクトル作成をしてみました。文章ベクトルを作ることで、文章の分類や、機械学習アプリケーションへの入力として使うなど、色々な自然言語処理に応用することができます。文章ベクトルを作るには自然言語処理モデルを使いますが、モデルには色々な種類がありBERTだけでなく、その進化系のALBERTや、XLNetなど新しいモデルが提案され精度向上を謳っています。 今回はBERT以外のモデルでの文章ベクトル作成を試してみたいと思います。今回使うモデルは、Facebookで開発されたfastTextです。fastTextを自然言語に活用しようと思っていらっしゃる方向けの技術情報になれば幸いです。 Word2Vecを考案したトマス・ミコロフが、GoogleからFacebookの人工知能研究所「Facebook AI R
日本語BERT学習済みモデルを使った日本語の文章ベクトル作成をしてみました。今回は環境構築無しでGoogle Colaboratoryを使ってGoogleアカウントがあればクラウドで手軽にできる方法で文章ベクトルを求めるプログラムを動かしてみたいと思います。機械学習を勉強されている方や、それを自然言語に活用しようと思っていらっしゃる方向けの技術情報になれば幸いです。 BERTとは、Bidirectional Encoder Representations from Transformers の略で、 「Transformerによる双方向のエンコード表現」と訳され、2018年10月にGoogleのJacob Devlinらの論文で発表された自然言語処理モデルです。翻訳、文書分類、質問応答など自然言語処理の仕事の分野のことを「(自然言語処理)タスク」と言いますが、BERTは、多様なタスクにおい
国内初。5つのAIエンジン(※)が高い回答精度を実現。※特許出願中 ENOKIはWebチャットや社内ヘルプデスクなど、企業活動の様々な用途に対応できるAIプラットフォームです。5つのAIエンジンがユーザーの質問の意図を読み取り、適切な回答を組み合わせることで自然な会話を実現します。
このページを最初にブックマークしてみませんか?
『株式会社エノキ – AIプラットフォームで、未来を変える』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く