タグ

ブックマーク / deeplearning.hatenablog.com (2)

  • OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ

    OpenAIGPT-3の次の研究を始めています. 世間がGPT-3のデモに湧き上がる中,OpenAIはScaling Lawに関する2の論文をひっそりと公開しました. Scaling Lawを一言で説明するなら「Transformerの性能はたった3つの変数のべき乗則に支配されている」というものです. Scaling Lawはそれ単体だけなら興味深い話で終わるかもしれません.実際に英語圏でもあまり話題にあがっていません.しかし,この法則の当の凄さに気づいている研究者もいて,なぜ話題にならないのか困惑しています. I am curious why people are not talking more about the OpenAI scaling law papers. For me, they seem very significant. What I heard so far:

    OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ
  • GPT-3の衝撃 - ディープラーニングブログ

    この1週間はGPT-3のユースケースの広さに驚かされる毎日でした. シリコンバレーでは話題騒然ですが日ではほとんど話題になっていないので,勢いで書くことにしました. GPT-3OpenAIが開発した言語生成モデルです.名前の由来であるGenerative Pretrained Transformerの通り,自然言語処理で広く使われるTransformerモデルを言語生成タスクで事前学習しています. 先月申請すれば誰でもGPT-3を利用できるOpenAI APIが発表され,様々な業種の開発者によって驚くべきデモンストレーションがいくつも公開されています. 特に話し言葉からJSXやReactのコードを生成するデモは著名なベンチャーキャピタルから注目を集め,誇大広告気味だと警鐘を鳴らす事態に発展しています. This is mind blowing. With GPT-3, I built

    GPT-3の衝撃 - ディープラーニングブログ
    YaSuYuKi
    YaSuYuKi 2020/07/21
    データセット汚染問題は、例えば、学術論文だけを読ませる方法が考えられる。医学論文を読ませて症状から病気を推定、材料工学の論文を読ませて要求性能から該当物質や製造法の候補を推定、のように
  • 1