記事へのコメント1

    • 注目コメント
    • 新着コメント
    plasma0713
    plasma0713 “Weight decayの値を0以外(例えば 0.0001等)にすると、L2正規化が働いて、過学習の抑制効果がありますが、Optimizerタブで「Adam」を選択していると、相性の問題で、あまり過学習抑制効果がないように見えました。”

    2023/01/22 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    過学習抑制「Weight Decay」はSGDと相性が良く、Adamと良くない?/ニューラルネットワーク - SE_BOKUのまとめノート的ブログ

    目次 過学習の抑制手法「Weight Decay」 Weight Decayのペナルティの値は係数をかけ合わせたもの Weight...

    ブックマークしたユーザー

    • plasma07132023/01/22 plasma0713
    • satojkovic2019/05/28 satojkovic
    • kenmatsu42019/02/17 kenmatsu4
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事