サクサク読めて、アプリ限定の機能も多数!
LLaMAは研究者向けの限定リリースなので、ビジネスとかで実用するにはApache 2.0ライセンスのRWKVを使えるのは大きいかと。 / Alpaca のモデルも研究用途限定 / 3GB RAM 使用に抑えるには 'cuda fp16i8 *0+ -> cpu fp32 *1' が必要だった。
BlueSkyDetector のブックマーク 2023/03/26 19:42
完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3zLLaMAは研究者向けの限定リリースなので、ビジネスとかで実用するにはApache 2.0ライセンスのRWKVを使えるのは大きいかと。 / Alpaca のモデルも研究用途限定 / 3GB RAM 使用に抑えるには 'cuda fp16i8 *0+ -> cpu fp32 *1' が必要だった。2023/03/26 19:42
LLaMAは研究者向けの限定リリースなので、ビジネスとかで実用するにはApache 2.0ライセンスのRWKVを使えるのは大きいかと。 / Alpaca のモデルも研究用途限定 / 3GB RAM 使用に抑えるには 'cuda fp16i8 *0+ -> cpu fp32 *1' が必要だった。
このブックマークにはスターがありません。 最初のスターをつけてみよう!
note.com/shi3zblog2023/03/26
Transformerは分散できる代償として計算量が爆発的に多いという不利がある。 一度みんなが忘れていたリカレントニューラルネットワーク(RNN)もボケーっとしている場合ではなかった。 なんと、GPT3並の性能を持つ...
359 人がブックマーク・27 件のコメント
\ コメントが サクサク読める アプリです /
LLaMAは研究者向けの限定リリースなので、ビジネスとかで実用するにはApache 2.0ライセンスのRWKVを使えるのは大きいかと。 / Alpaca のモデルも研究用途限定 / 3GB RAM 使用に抑えるには 'cuda fp16i8 *0+ -> cpu fp32 *1' が必要だった。
BlueSkyDetector のブックマーク 2023/03/26 19:42
このブックマークにはスターがありません。
最初のスターをつけてみよう!
完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3z
note.com/shi3zblog2023/03/26
Transformerは分散できる代償として計算量が爆発的に多いという不利がある。 一度みんなが忘れていたリカレントニューラルネットワーク(RNN)もボケーっとしている場合ではなかった。 なんと、GPT3並の性能を持つ...
359 人がブックマーク・27 件のコメント
\ コメントが サクサク読める アプリです /