記事へのコメント17

    • 注目コメント
    • 新着コメント
    kmiura
    kmiura これはオモロいな。絵画におけるポインティリズム

    2024/04/17 リンク

    その他
    memoryalpha
    memoryalpha “LLMの領域では、最近は32bitや16bitから、8bitや4bitといった低bit化がトレンドになってきていますが、それをさらに1bitまで減らしてしまおうというのが1bit LLMの考え方”

    2024/04/17 リンク

    その他
    AmaiSaeta
    AmaiSaeta 「-1,0,+1で表現=約1.58bit≒1bit」というのは、なんか詐欺っぽさを感じさせる表現なのが引っかかるが理解した。が、bitの数が実数というのはよく分からん。8bitに5パラメータ詰め込めるという話にはならないよね。

    2024/04/17 リンク

    その他
    maketexlsr
    maketexlsr https://qiita.com/kanekanekaneko/items/901ee2837401750dfdad

    2024/04/17 リンク

    その他
    hamamuratakuo
    hamamuratakuo 実は学習は基本的にいままでと変わらないやり方が必要。学習にはGPUを使って、16bitとかの浮動小数点数演算をしないといけないんです。何も考えずに普通に学習したモデルを、あとから1bitに丸めてもあまりうまくいかない

    2024/04/16 リンク

    その他
    otihateten3510
    otihateten3510 この流れね、NVIDIAの株価上昇にストップを付けるならこれかと言われてるね

    2024/04/16 リンク

    その他
    qpci32siekqd
    qpci32siekqd 近似コンピューティング(Approximate Computing)と言えなくもないのかな

    2024/04/16 リンク

    その他
    star_123
    star_123 わかった気になれる説明だった

    2024/04/16 リンク

    その他
    gonai
    gonai 32bitのCPUを2つ積んで64bitと豪語するより納得感ある1bitだよ

    2024/04/16 リンク

    その他
    yarumato
    yarumato “LLM、つまり大規模言語モデルは、モデルが大きいと、計算量とメモリが大量に必要。モデルを圧縮する技術3つのうち量子化で、16bitとか32bitの情報量を減らす。0,1,-1の3値、2の1.58乗だから実際は1.58bit”

    2024/04/16 リンク

    その他
    u_mid
    u_mid ”0、1、-1の3値を使っています。3通りというのは、2の1.58乗に相当するんですよ。だから実際は1.58bitになります” 3値は1bitじゃ表現できないよね。1.58bitも1bitより2bitに近い。それは1bit LLMと言っていいのか。1.5bit LLMでは。

    2024/04/16 リンク

    その他
    tattyu
    tattyu 結局重み付けの精度よりも量の方が重要だったって事だよな。益々金と情報がある所しか参入出来なくなるな。

    2024/04/16 リンク

    その他
    ustam
    ustam 実はAIの演算に1000twhほど電力(日本の電力消費量と同等)を消費するようになる予測がされており洒落にならない状況なので、省エネ化が図られるのは超朗報。というか、とっとと導入しろ。

    2024/04/16 リンク

    その他
    sisc
    sisc めちゃんこわかりやすかった

    2024/04/16 リンク

    その他
    toaruR
    toaruR 『普通に学習したモデルを、あとから1bitに丸めてもあまりうまくいかない』

    2024/04/16 リンク

    その他
    xorzx
    xorzx ブクマカはGPU無いし1bitなのは仕方がないよね?

    2024/04/16 リンク

    その他
    cartman0
    cartman0 なるほど。厳密には-1,0,+1の3通りだから2^1.58=3で1.58bitなのか

    2024/04/16 リンク

    その他
    hatebu_admin
    hatebu_admin ブクマカだって1bit脳だぞ

    2024/04/16 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた

    ではそもそも“1bit”とは何が1bitなのか、どうして1bitになるとGPUが不要になるのか。LLMでGPUが不要にな...

    ブックマークしたユーザー

    • geopolitics2024/04/29 geopolitics
    • masatoi2024/04/21 masatoi
    • gurutakezawa2024/04/21 gurutakezawa
    • s_ryuuki2024/04/21 s_ryuuki
    • yamada_k2024/04/19 yamada_k
    • mgl2024/04/18 mgl
    • knj29182024/04/17 knj2918
    • zmartinezUx12024/04/17 zmartinezUx1
    • quick_past2024/04/17 quick_past
    • pirota_pirozou2024/04/17 pirota_pirozou
    • tk182024/04/17 tk18
    • wktk_msum2024/04/17 wktk_msum
    • kmiura2024/04/17 kmiura
    • cyber_snufkin2024/04/17 cyber_snufkin
    • andsoatlast2024/04/17 andsoatlast
    • minamishinji2024/04/17 minamishinji
    • amataamataaa2024/04/17 amataamataaa
    • nikukyu-eng2024/04/17 nikukyu-eng
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事