まず、MPTはTransformerなのでRWKVと違い、VRAMをめちゃくちゃ要求します。必要なVRAMの容量は、12*N(Nはパラメータ数)で概算できます。 たとえばGPT-13Bをやりたければ、12*13=156GBが必要ということになります。

shodaishodai のブックマーク 2023/06/21 15:10

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

ABCIでMPT-7Bのファインチューニングを試す|shi3z

    前提知識MPT-7Bは最近発表された商用利用可能な大規模言語モデルで、LLaMAに匹敵する性能を持っていると言われています。 ABCIは経産省が管轄する日在住者なら誰でも安価に使えるスーパーコンピュータです。 (...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう