エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Command-R 35B x memGPT インテグレーションレポート - YKRV.NET
これまで様々なローカルモデルが登場してきた。70Bといったローカルで動作させるには業務用グレードのA1... これまで様々なローカルモデルが登場してきた。70Bといったローカルで動作させるには業務用グレードのA1000といったようなGPUをx枚といったような環境を整えればChatGPTクラスの代物を動かせる。 そんな話題は散々聞いてきた。だが、一般人としての目線で見るとするなら、ご家庭一般クラス基準で動かすにせよRTX 4090シングルカードといったグレードが関の山。 しかしローカルLLMはそう甘くはない。シングルカード動作かつコンシューマーグレード前提ともなれば、どれもGPT-4はおろかGPT-3.5の足元にも及ばないモデルが多く、特に日本語の出力精度・純粋なロールプレイ型チャット性能を問おうとすると、出力こそ可能でもイマイチ体感的にぱっとしないモデルが昨年から登場し続けてきた。 そんな中 2024年 3月の終わり頃、Cohere社によりあるローカルLLMモデルが一般公開された。
2024/04/08 リンク