記事へのコメント26

    • 注目コメント
    • 新着コメント
    Cru
    Cru もはや旧聞になってしまったけど、ブクマしとこう

    2023/08/20 リンク

    その他
    enemyoffreedom
    enemyoffreedom 2021年1月の記事

    2023/03/22 リンク

    その他
    yefu
    yefu ディープラーニングの能力は計算資源のスケールに依存して向上し続ける

    2022/02/14 リンク

    その他
    hippy-hikky
    hippy-hikky サイズが大きければってことは、記憶できるパターンの数が多いほど精度が上がるみたいなことかな(よくわかってない)?だとしたら理解はできるけどあまり夢は持てないなー

    2021/01/07 リンク

    その他
    phare
    phare “Scaling Lawを一言で説明するなら「Transformerの性能はたった3つの変数のべき乗則に支配されている」というものです”

    2021/01/07 リンク

    その他
    t1mvverr
    t1mvverr 正解にたどり着いた感

    2021/01/06 リンク

    その他
    mkusunok
    mkusunok ゴールドラッシュと同じで、フロンティアが開拓された後は資本集約してスケールさせる展開に?

    2021/01/06 リンク

    その他
    skypenguins
    skypenguins 予算の規模がやばいな

    2021/01/06 リンク

    その他
    hihi01
    hihi01 すごいな、AIの性能限界もべき分布で、リソースの量のみによると。

    2021/01/05 リンク

    その他
    schyzon
    schyzon 資本力ある企業がAIベンチャーを駆逐する構図が思い浮かんで辛い

    2021/01/05 リンク

    その他
    zkzi3254
    zkzi3254 性能限界無いって凄いな

    2021/01/05 リンク

    その他
    mochitabesugi
    mochitabesugi Transformerの性能に限界がないのか。金に物を言わせて大量に良質のデータをかき集め、豊富な計算資源を用意すれば、いくらでも性能の高いものが作れるということか

    2021/01/05 リンク

    その他
    hatest
    hatest いろんな意味でスケールのでかい話

    2021/01/05 リンク

    その他
    Ez-style
    Ez-style 要するに、レベルを上げて物理で殴ればいい、みたいな。

    2021/01/05 リンク

    その他
    mysql8
    mysql8 2021年プレ・シンギュラリティ(GPT-4 AGI)は近い パラメータ数が多い=ニューロンが多いほど頭がいいってことにならない?老化や萎縮でニューロンが減ると認知症やボケるってそうゆうことだよね?5000兆円あげるからAGI作って

    2021/01/05 リンク

    その他
    otoan52
    otoan52 どの脳でもそれなり以上には機能している、という観測結果をうまく説明できる気がする。

    2021/01/05 リンク

    その他
    knok
    knok コーパスが人間の一生分あればAGIに近づくだろうか?さすがにそれだけでは無理かな。他のモダリティ情報もないと

    2021/01/05 リンク

    その他
    denqueue
    denqueue "Transformer (言語モデル) の性能はパラメータ数N・データセットサイズD・計算予算Cを変数としたシンプルなべき乗則 (Power Law)1 に従うというものです."

    2021/01/05 リンク

    その他
    misshiki
    misshiki “1つはScaling Lawの有効範囲には上限がない可能性です.つまり,理論上は3つの変数を上げ続ければTransformerの性能は無限に上がり続けることを意味します.”

    2021/01/05 リンク

    その他
    stealthinu
    stealthinu 凄い論文。Scaling Lawは上限がなく規模により性能が無限に上がるのとあらゆるドメインに適用できる可能性を示唆。極端なこと言えば予算あれば現在でもシンギュラリティ可能ってことでは。

    2021/01/05 リンク

    その他
    aipacommander
    aipacommander すごいけどお金。。。。

    2021/01/05 リンク

    その他
    Nyoho
    Nyoho 「Transformerの性能はたった3つの変数のべき乗則に支配されている」

    2021/01/05 リンク

    その他
    geopolitics
    geopolitics 札束で殴る。札束は上限なし。

    2021/01/05 リンク

    その他
    otori334
    otori334 “Transformer (言語モデル) の性能はパラメータ数N・データセットサイズD・計算予算Cを変数としたシンプルなべき乗則 (Power Law)1 に従うという” “性能に限界が存在しない可能性があります”

    2021/01/05 リンク

    その他
    hobbiel55
    hobbiel55 「多くの問題がどれだけお金を払えるかという問題に変わります」←また、資本家に富が集中する新たな可能性が開かれた。

    2021/01/05 リンク

    その他
    hirokiky
    hirokiky すごい。夢しかない。

    2021/01/05 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ

    OpenAIGPT-3の次の研究を始めています. 世間がGPT-3のデモに湧き上がる中,OpenAIはScaling Lawに関...

    ブックマークしたユーザー

    • pidekazu2023/12/30 pidekazu
    • proto_jp2023/12/11 proto_jp
    • Cru2023/08/20 Cru
    • techtech05212023/08/09 techtech0521
    • uehaj2023/04/12 uehaj
    • bosh2023/04/06 bosh
    • qinmu2023/03/30 qinmu
    • marutaku01312023/03/25 marutaku0131
    • takasago082023/03/24 takasago08
    • akiyoko2023/03/23 akiyoko
    • nakag07112023/03/22 nakag0711
    • enemyoffreedom2023/03/22 enemyoffreedom
    • gabill2023/03/10 gabill
    • yamada_k2023/03/06 yamada_k
    • TakayukiN6272023/02/21 TakayukiN627
    • idk2023/02/20 idk
    • zetta19852023/02/08 zetta1985
    • phain2023/01/11 phain
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事