記事へのコメント2

    • 注目コメント
    • 新着コメント
    Nyoho
    Nyoho 日本語Wikipediaで訓練したもの。MITライセンス。

    2020/04/23 リンク

    その他
    masaki925_8107
    masaki925_8107 BERTより軽量なDistilated-BERTをWikipedia で学習させたもの。3分の1くらいのサイズで9割程度の精度がでた。

    2020/04/23 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    GitHub - BandaiNamcoResearchInc/DistilBERT-base-jp

    You signed in with another tab or window. Reload to refresh your session. You signed out in anoth...

    ブックマークしたユーザー

    • samurairodeo2020/04/24 samurairodeo
    • rin512020/04/24 rin51
    • sakito09022020/04/24 sakito0902
    • laughing2020/04/24 laughing
    • Nyoho2020/04/23 Nyoho
    • muddydixon2020/04/23 muddydixon
    • masaki925_81072020/04/23 masaki925_8107
    • invent2020/04/23 invent
    • marices1992020/04/23 marices199
    • tuki09182020/04/23 tuki0918
    • machupicchubeta2020/04/23 machupicchubeta
    • yooks2020/04/22 yooks
    • dowhile2020/04/22 dowhile
    • mura_22020/04/22 mura_2
    • showyou2020/04/22 showyou
    • ZAORIKU2020/04/22 ZAORIKU
    • yag_ays2020/04/22 yag_ays
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事