記事へのコメント6

    • 注目コメント
    • 新着コメント
    misshiki
    misshiki “LINE DistilBERTは次のような特徴を持つ日本語言語モデルです。 高性能・高速・軽量、 Hugging Faceのtransformersから簡単に利用可能、 商用利用可能なApache License 2.0でのモデル配布”

    2023/03/14 リンク

    その他
    shunkeen
    shunkeen “蒸留をBERTに適用したものがDistilBERT”/AIの民主化加速し過ぎ。いいぞ、もっとやれ。これはモデルだけど、各種LLMの日本語蒸留モデルを作って格安APIを出せば、商売として勝てそう。ガラパゴスと揶揄されようとも。

    2023/03/14 リンク

    その他
    cpw
    cpw どんなアウトプットになるのか見ようかとhugging face見てみたけど、エラーになって動かなかった

    2023/03/13 リンク

    その他
    kajyuuen
    kajyuuen id:cpw 独自のトークナイザーを使用している都合上、 Hugging Faceのデモは利用できない状況になっています。ご迷惑をおかけしてすいません。普通に使用する分には問題なく動くかと思います!

    2023/03/13 リンク

    その他
    diabah_blue
    diabah_blue ライセンスがよい。

    2023/03/13 リンク

    その他
    gengohouse
    gengohouse “高性能・高速・軽量な日本語言語モデル LINE DistilBERTを公開しました”

    2023/03/13 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    高性能・高速・軽量な日本語言語モデル LINE DistilBERTを公開しました

    LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログは...

    ブックマークしたユーザー

    • jynambow2023/11/17 jynambow
    • pokutuna2023/05/20 pokutuna
    • sho_hisa2023/04/10 sho_hisa
    • minamijoyo2023/03/28 minamijoyo
    • tasukuchan2023/03/25 tasukuchan
    • ensan_dev2023/03/23 ensan_dev
    • laughing2023/03/22 laughing
    • shirotorabyakko2023/03/21 shirotorabyakko
    • kappaseijin2023/03/21 kappaseijin
    • yuiseki2023/03/21 yuiseki
    • yuanying2023/03/18 yuanying
    • moo_san2023/03/16 moo_san
    • hystericgrammar2023/03/15 hystericgrammar
    • nakayossi2023/03/15 nakayossi
    • midas365452023/03/15 midas36545
    • m0t0m0t02023/03/14 m0t0m0t0
    • sakito09022023/03/14 sakito0902
    • misshiki2023/03/14 misshiki
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事