記事へのコメント20

    • 注目コメント
    • 新着コメント
    stealthinu
    stealthinu GPT-3の論文からこれまでとの違い。つまるところ超巨大Transformerで超巨大データセット利用。それでこれだけのことができると逆に意識とは一体なんだろう?と疑問が深まる。

    2020/07/27 リンク

    その他
    burabura117
    burabura117 ざっくりまとまっていてよかった。しかしもはやちょっとしたR&D部門程度ではおこぼれを使うぐらいしかできないな…

    2020/07/26 リンク

    その他
    KoshianX
    KoshianX AIに含まれる偏見の例が検証されてるのがおもしろいなあ。まあ学習するデータそのものにそういう偏見がどうしても含まれてるってことなんだろうなあ……

    2020/07/26 リンク

    その他
    misshiki
    misshiki “この記事の流れは以下の通りです。1. Transformer, GPT-2の説明。2. GPT-3のコンセプトと技術的な解説。3. GPT-3ので上手くいくタスク。4. GPT-3で上手くいかないタスク。5. 偏見や悪用への見解”

    2020/07/26 リンク

    その他
    sh19e
    sh19e “超巨大データセット・超巨大モデルが正義という昨今の研究潮流や、偏見や悪用への問題など、GPT-3ではDLを取り巻く環境の縮図を見ている気がします。”

    2020/07/25 リンク

    その他
    skypenguins
    skypenguins パラメータ数が1750億ってヤバすぎる

    2020/07/25 リンク

    その他
    tick2tack
    tick2tack 技術的な話。ぜんぜんわからんが。何ができないかを知っておくのは大事そう。

    2020/07/25 リンク

    その他
    nikutaiha
    nikutaiha “GPT-3”

    2020/07/25 リンク

    その他
    blueboy
    blueboy  思いつくという課程では、人間の思考も確率的なのだが、人間の思考の場合には、ダメなときにダメだと判定するエラーチェック機構が組み込まれているので、ダメな候補を排除することができる。  https://j.mp/2D4eZpQ

    2020/07/25 リンク

    その他
    modoroso
    modoroso 記号着地とフレーム問題だっけ? まだまだそれの突破は遠いのかな

    2020/07/25 リンク

    その他
    stp7
    stp7 そもそも読ませてる文が人間の書いた文章だからなあ。

    2020/07/24 リンク

    その他
    onesplat
    onesplat 人間が45TBものテキストを読んでいるはずはないので、その点だけでもスケールではなくモデルの部分に限界があるのは非常にわかるが、それでも生成されたゲイの結婚のニュース記事を読むとゾッとするな

    2020/07/24 リンク

    その他
    Y_Mokko
    Y_Mokko やっぱりWebtextだと人間が無意識的に行っている差別もそのまま反映されてしまうのね。

    2020/07/24 リンク

    その他
    kana0355
    kana0355 “タスク特有の注目すべき部分に注視できておらず、実世界の物理情報にも基づいていません。そのため、別アプローチによる拡張が必要な可能性が高い”

    2020/07/24 リンク

    その他
    north_korea
    north_korea 謎なのはなぜHTMLなどのコードを出力できるのか

    2020/07/24 リンク

    その他
    vbwmle
    vbwmle 「それっぽいことをいうが実は何も理解していないモデル」は「理解のレベルに応じてつたない表現をするモデル」に比べ頭の悪さが見えない分タチが悪いのでは。現実社会もそれでハックされるパターンは山ほどあるし。

    2020/07/24 リンク

    その他
    Knoa
    Knoa たぶん記事の内容とずれちゃうと思うけど、この技術の音楽(作曲)への応用は試されているのかな?

    2020/07/24 リンク

    その他
    Shin-JPN
    Shin-JPN 無論単なる確率処理であって意味理解ではないのだが、そもそも人間の言語処理も、単に参照するデータセットが非言語含む広範囲&学習期間が長いだけの確率処理でしかなく、そこに本質的な差異はないのではないか

    2020/07/24 リンク

    その他
    knok
    knok 単なる言語モデルは少なくとも「理解」には踏み込めていないよね/まだBERTのMLMの方が理解に近づいていそうではある。disentangleがNLPでももっと進まないかな

    2020/07/24 リンク

    その他
    gengohouse
    gengohouse 「一方、GPT-3でも上手くいかないタスクがあります。例えば下記の質問回答タスクでは、CoQAを除いてFine-Tuneしたモデルより大きく劣る結果になっています。また、ANLI(2つの文を比較して、一方が他方を暗示しているかどう

    2020/07/24 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    超巨大高性能モデルGPT-3の到達点とその限界. この記事では、超巨大言語モデルGPT-3の技術的な解説、GPT-3達成したことと… | by akira | Jul, 2020 | Medium

    この記事についてこの記事ではGPT-3[1]の解説をします。内容のサマリは以下の通りです。 GPT-3の前身で...

    ブックマークしたユーザー

    • mathtonica2023/02/27 mathtonica
    • thotentry_hatebu1972020/12/12 thotentry_hatebu197
    • electrica6662020/11/27 electrica666
    • civicpg2020/08/15 civicpg
    • masadream2020/08/03 masadream
    • rryu2020/08/02 rryu
    • minus9d2020/08/02 minus9d
    • Rlee19842020/08/01 Rlee1984
    • lanius2020/07/30 lanius
    • devgigantlullaby2020/07/30 devgigantlullaby
    • hate-uruma2020/07/29 hate-uruma
    • yoshihiroueda2020/07/29 yoshihiroueda
    • T-miura2020/07/29 T-miura
    • jamais_vu2020/07/29 jamais_vu
    • shinagaki2020/07/28 shinagaki
    • yamadashy2020/07/28 yamadashy
    • hm_hs2020/07/28 hm_hs
    • keno_ss2020/07/27 keno_ss
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事