“LLM、つまり大規模言語モデルは、モデルが大きいと、計算量とメモリが大量に必要。モデルを圧縮する技術3つのうち量子化で、16bitとか32bitの情報量を減らす。0,1,-1の3値、2の1.58乗だから実際は1.58bit”

yarumatoyarumato のブックマーク 2024/04/16 16:29

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた

    ではそもそも“1bit”とは何が1bitなのか、どうして1bitになるとGPUが不要になるのか。LLMでGPUが不要になるとどんな世界が訪れるのか。オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLabo...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう