記事へのコメント2

    • 注目コメント
    • 新着コメント
    somemo
    somemo “Transformerモデルの最初の層は単語埋め込み -> 文脈のような複雑な情報 -> 最終層に近づくにつれ、「MLMl」や「NSP」などの事前学習に特化した情報を学習していると言われています。”

    2022/05/31 リンク

    その他
    misshiki
    misshiki “Kaggleのコンペティションに参加して得た、事前学習モデルのfine-tuningの精度向上に関するTips”

    2021/09/06 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift

    こんにちは AIチームの戸田です 記事では前回に引き続き、私がKaggleのコンペティションに参加して得...

    ブックマークしたユーザー

    • imyutaro2023/02/10 imyutaro
    • somemo2022/05/31 somemo
    • jp-myk2021/10/10 jp-myk
    • ayaniimi2132021/09/09 ayaniimi213
    • yag_ays2021/09/08 yag_ays
    • ymym34122021/09/08 ymym3412
    • manboubird2021/09/08 manboubird
    • esuji52021/09/07 esuji5
    • sacchin132021/09/07 sacchin13
    • illbit2021/09/07 illbit
    • budeet2021/09/07 budeet
    • yamada_k2021/09/07 yamada_k
    • dhesusan46492021/09/07 dhesusan4649
    • yuiseki2021/09/07 yuiseki
    • shunk0312021/09/07 shunk031
    • laughfox2021/09/07 laughfox
    • codingdead2021/09/07 codingdead
    • en-en-ra2021/09/07 en-en-ra
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事