タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

勉強になりますに関するA---chanのブックマーク (1)

  • モデルを蒸留するのではなくデータセットを蒸留する(論文紹介②Dataset Distillation) - β日記

    蒸留とは 中学生の時に化学で学んだ蒸留について、 蒸留(じょうりゅう、Distillation)とは、混合物を一度蒸発させ、後で再び凝縮させることで、沸点の異なる成分を分離・濃縮する操作をいう。 引用元:Wikipedia 深く、大きいモデルが優秀であることは想像に難くありません。しかし、実際にはそのような大きいモデルが使用できないが機械学習モデルを使用したい場面があります(ラズパイとかでやる時など)。そのような時に、深く大きいニューラルネットワークの知識を蒸留し、より浅く小さいニューラルネットワークへ学習させるために使われるものです。特に大きいモデルを教師モデル、小さいモデルを生徒モデルと言います。つまり性能をできるだけそのままに教師モデルから生徒モデルへ知識の継承を行うことを目的としています。これについての元論文は以下です。 Distilling the Knowledge in a

    モデルを蒸留するのではなくデータセットを蒸留する(論文紹介②Dataset Distillation) - β日記
  • 1