記事へのコメント1

    • 注目コメント
    • 新着コメント
    Ryobot
    Ryobot 高資源言語間だと,このモデルサイズでもlogスケールで性能があがるのか.限界が見えんな.“scaling Transformers to over 1500 layers with 84 billion parameters” そして,ここにきてSparse Gating MoEがくるのか

    2019/10/13 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Exploring Massively Multilingual, Massive Neural Machine Translation

    Philosophy We strive to create an environment conducive to many different types of research acros...

    ブックマークしたユーザー

    • Ryobot2019/10/13 Ryobot
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - 世の中

    いま人気の記事 - 世の中をもっと読む

    新着記事 - 世の中

    新着記事 - 世の中をもっと読む

    同時期にブックマークされた記事