タグ

ブックマーク / qiita.com/uedake722 (1)

  • [翻訳]BERTで自然言語AIをはじめる(github上のREADMEの翻訳) - Qiita

    その他多くのタスクでも効果的です。 さらに、これらの結果は、タスク特有のニューラルネットの設計をほぼすることなしに得られます。 もし、既にBERTが何かを知っておりただ利用を開始したいだけなら、事前学習済みのモデルをダウンロードし、たった数分で最先端(state-of-the-art)の 転移学習を実行できます. What is BERT?:BERTとは何か? BERTは言語表現事前学習の新しい方法です。その意味するところは、(Wikipediaのような)大きなテキストコーパスを用いて汎用目的の「言語理解」(language understanding)モデルを訓練すること、そしてそのモデルを関心のある実際の自然言語処理タスク(質問応答など)に適用することです。BERTは従来の方法を超えた性能を発揮します。なぜならBERTは、自然言語処理タスクを教師なしでかつ双方向に事前学習する初めてのシ

    [翻訳]BERTで自然言語AIをはじめる(github上のREADMEの翻訳) - Qiita
  • 1