dGPUにおいては元々ALUが16bitだったが精度が足りないので32bitになった歴史なので、今更FP16のパックド演算に積極対応するモチベは…? AI用コアも既に推論用のINT4/8のパックド演算に対応してるし、まあモバイル向けの話かと

tripleshottripleshot のブックマーク 2024/04/16 14:23

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

負荷を抑えて高品質? スマホゲームのグラフィックスを進化させるためにゲームエンジン「Frostbite」が取り組む「FP16化」とは

    負荷を抑えて高品質? スマホゲームのグラフィックスを進化させるためにゲームエンジン「Frostbite」が取り組む「FP16化」とは ライター:西川善司 2024年3月に行われたGDC 2024で,「FP16 Shaders in Frostbite...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう