記事にいくつか間違いがある。ABCIのGPU数は、V100は1088サーバ x4 (4352)、A100は120サーバ x8(960)。LLMのような大きなモデルは、80GBでも容量が足りず、モデルを分割して並列処理するので、メモリ容量は最重要ではない。

myopiamyopia のブックマーク 2023/08/20 16:20

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦

    ChatGPT開発に必要なGPUは3万基、日の国策AI基盤は1千基。目前に迫る日AI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニ...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう