タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

人工知能とGoogle Cloudに関するSyunpeiのブックマーク (1)

  • Google、GPU不要でLLMの実行を可能にするツール「localllm」を公開

    2月7日、Google Cloudがブログで紹介したところによると、大規模言語モデル(LLM)をGPUなしでローカル実行できる新しいツール「localllm」を発表した。localllmはCPUとメモリでLLMを実行可能にし、特にGPUの不足が課題となる開発者に新たな選択肢を提供する。 このアプローチでは、Google Cloudの完全管理型開発環境であるCloud Workstations内で、GPUなしでLLMを実行できる。具体的には、HuggingFaceの「TheBloke」リポジトリのLLMモデルを使用し、CPUや低消費電力GPUで動作できるように最適化された量子化手法を採用している。 量子化モデルは、制限された計算リソースを持つローカルデバイスで効率的に動作するように最適化されたAIモデルだ。例えば、以下の利点が挙げられる: パフォーマンスの向上: 低精度データ型を使用すること

    Google、GPU不要でLLMの実行を可能にするツール「localllm」を公開
    Syunpei
    Syunpei 2024/02/09
    GPU「不要」まで来たか…
  • 1