“Transformerモデルの最初の層は単語埋め込み -> 文脈のような複雑な情報 -> 最終層に近づくにつれ、「MLMl」や「NSP」などの事前学習に特化した情報を学習していると言われています。”

somemosomemo のブックマーク 2022/05/31 20:14

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift

    こんにちは AIチームの戸田です 記事では前回に引き続き、私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます 前回は学習の効...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう