タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

llmに関するlasherplusのブックマーク (1)

  • 日本語LLM 9種を量子化して回答内容を比較調査してみた - Qiita

    TL;DR 量子化しても成績が下がりにくいモデルと、大きく下がるモデルがある 一部のモデルは量子化すると回答が極端に短くなる 量子化によって回答が短くなる度合いは、量子化前モデルの回答の長さと相関がある可能性がある はじめに 皆さんは量子化したLLMを使っていますか? 深層学習における量子化(quantization) とは、モデルのパラメータを少ないビット数で表現することです。 通常のモデルは float32 などの高精度なデータ型を使ってパラメータを表現しますが、この精度を float16 や int8 に下げることを量子化といいます。 量子化による最大のメリットは、モデルのメモリ使用量を削減できることです。メモリの大きなモデルを動かすためには、大容量のメモリを搭載したGPUが必要ですが、量子化によってモデルのメモリ使用量を削減することで、より多くのGPUでモデルを動かすことができます

    日本語LLM 9種を量子化して回答内容を比較調査してみた - Qiita
  • 1