記事へのコメント5

    • 注目コメント
    • 新着コメント
    misshiki
    misshiki “結論を先に述べますが、ただ置き換えただけだと使い物にならなかったです。やはり事前学習から行う量子化手法なんだと思います。”

    2024/03/04 リンク

    その他
    otakumesi
    otakumesi 単純な置換ならそうなるだろうなとは思うけれど、何らかのデータセットで追加事前学習してみたどうなるだろう

    2024/03/03 リンク

    その他
    kei_1010
    kei_1010 https://github.com/Beomi/BitNet-Transformers/ を使わない理由を書いて欲しい。

    2024/03/02 リンク

    その他
    shunkeen
    shunkeen 1(.58)ビット量子化するのを前提に学習時にStraight-Through EstimatorとかRoundClipうんたらを使って学習しないと、量子化して推論したときに結果が振るわない的な話なのかな。手法の一部だけ取り入れても壊れるだけみたいな。

    2024/03/02 リンク

    その他
    sato-gc
    sato-gc 早い。個人的には0を含む3値であることが重要であるように思うので、これだけでは実力はわからんよね

    2024/03/01 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    既存日本語LLMをBitNetで置き換えて実行してみた|はち

    はじめに昨夜からBitNetという1bit量子化LLMが話題になっていました。 簡単な概要としては、 既存のLLM...

    ブックマークしたユーザー

    • jp-myk2024/04/10 jp-myk
    • cu392024/03/08 cu39
    • misshiki2024/03/04 misshiki
    • midas365452024/03/04 midas36545
    • dhesusan46492024/03/03 dhesusan4649
    • flying-cat2024/03/03 flying-cat
    • NOkon2024/03/03 NOkon
    • yoshi_yoshi_442024/03/03 yoshi_yoshi_44
    • nukosan5552024/03/03 nukosan555
    • otakumesi2024/03/03 otakumesi
    • kei_10102024/03/02 kei_1010
    • d6rkaiz2024/03/02 d6rkaiz
    • writers-high2024/03/02 writers-high
    • triceratoppo2024/03/02 triceratoppo
    • shunkeen2024/03/02 shunkeen
    • hidelocal2024/03/02 hidelocal
    • jack09092024/03/02 jack0909
    • tasukuchan2024/03/01 tasukuchan
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事