エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Pytorch高速化 (2)Mixed Precision学習を試す - arutema47's blog
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Pytorch高速化 (2)Mixed Precision学習を試す - arutema47's blog
Qiitaからのお引越しです。 前編 aru47.hatenablog.com TLDR; (2021/06/17) resnet50でCIFAR10をFP16に... Qiitaからのお引越しです。 前編 aru47.hatenablog.com TLDR; (2021/06/17) resnet50でCIFAR10をFP16により学習を2倍高速化でき、メモリ使用量も半分にできる。 pytorch1.6からデフォルトでMixed Precision学習をサポートしており、画像認識なら大抵これで上手く学習できます。 一部例外として、swin transformerだとapexを使用したほうが精度が良い場合もありました。 このチュートリアル通りにコードを書くのがおすすめです。 pytorch.org use_amp = True # ampをオンオフ # Creates model and optimizer in default precision model = Net().cuda() optimizer = optim.SGD(model.param