サクサク読めて、アプリ限定の機能も多数!
"GPUメモリに限りがある状況(16GB T4や24GB RTX3090など)でも大規模な言語モデルを高パフォーマンスで実行できる「FlexGen」"
kns_1234 のブックマーク 2023/02/21 11:52
GitHub - FMInference/FlexGen: Running large language models on a single GPU for throughput-oriented scenarios.[人工知能][技術]"GPUメモリに限りがある状況(16GB T4や24GB RTX3090など)でも大規模な言語モデルを高パフォーマンスで実行できる「FlexGen」"2023/02/21 11:52
"GPUメモリに限りがある状況(16GB T4や24GB RTX3090など)でも大規模な言語モデルを高パフォーマンスで実行できる「FlexGen」"
このブックマークにはスターがありません。 最初のスターをつけてみよう!
github.com/FMInference2023/02/21
In recent years, large language models (LLMs) have shown great performance across a wide range of tasks. Increasingly, LLMs have been applied not only to interactive applications (such as chat), bu...
38 人がブックマーク・3 件のコメント
\ コメントが サクサク読める アプリです /
"GPUメモリに限りがある状況(16GB T4や24GB RTX3090など)でも大規模な言語モデルを高パフォーマンスで実行できる「FlexGen」"
kns_1234 のブックマーク 2023/02/21 11:52
このブックマークにはスターがありません。
最初のスターをつけてみよう!
GitHub - FMInference/FlexGen: Running large language models on a single GPU for throughput-oriented scenarios.
github.com/FMInference2023/02/21
In recent years, large language models (LLMs) have shown great performance across a wide range of tasks. Increasingly, LLMs have been applied not only to interactive applications (such as chat), bu...
38 人がブックマーク・3 件のコメント
\ コメントが サクサク読める アプリです /