記事へのコメント2

    • 注目コメント
    • 新着コメント
    sh19910711
    sh19910711 "一方学習曲線を見てみると、Flaxの方が精度が悪いようです / トータルのバッチサイズは両方とも32ですが、TPUの場合、デバイスが8個あるので、デバイスごとのバッチサイズが4になることが原因かと思われます"

    2022/01/03 リンク

    その他
    mysql8
    mysql8 TPUで精度が下がる

    2021/10/26 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Jax/Flax × TransformersでBERTのfine-tuningをTPUで行う | 株式会社AI Shift

    こんにちは AIチームの戸田です 以前、BERTをfine-tuningする際のTipsとして混合精度の利用や、Uniform ...

    ブックマークしたユーザー

    • MrShoz2022/11/10 MrShoz
    • sh199107112022/01/03 sh19910711
    • mysql82021/10/26 mysql8
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事