記事へのコメント23

    • 注目コメント
    • 新着コメント
    burabura117
    burabura117 “step-by-step promptingは、GPTがそれ自体の仕組みとしては1時記憶/短期記憶を持たないため、途中の思考過程をいわば「カンニングペーパー」に書き起こさせることで…性能が大幅に改善する” あぁ…理解した。。

    2023/04/03 リンク

    その他
    kusomamma
    kusomamma なるほど。つまり、「吾輩は」「猫である」のだな。

    2023/04/01 リンク

    その他
    nikutaiha
    nikutaiha GPT

    2023/03/30 リンク

    その他
    ksaito54
    ksaito54 前回、ブックマークしなかったので。今回は結構、難しそう。

    2023/03/29 リンク

    その他
    lorenz_sys
    lorenz_sys 声の大きい人達がキラキラしたことにChatGPTを使う先鞭をつけようと躍起になっているようだけどGPTは言語モデルなんだからこういう話が本筋だよなぁ。技術者ならまずこういう話から食いつくように思ってたんだけど。

    2023/03/29 リンク

    その他
    hirorinya
    hirorinya 完全に理解した

    2023/03/29 リンク

    その他
    ultimatebreak
    ultimatebreak さっぱりわからねえ。廃業待ったなしや

    2023/03/29 リンク

    その他
    peperon_brain
    peperon_brain “文法を解析するのとおんなじ仕組みを高く積み上げていったら意味まで届いてしまった。”

    2023/03/28 リンク

    その他
    altar
    altar “日本語の場合は文字単位” あれは本当に一文字ごとに生成してる(っぽい)のか。他のモデルはおおむね品詞ごとにトークン化してたけど日本語特化されてないなら文字単位が自然と言われればまあ確かに。

    2023/03/28 リンク

    その他
    filinion
    filinion 単純な機能しか持たない細胞の塊であるはずの人間の脳がなぜか知能を持つのも、単に規模の問題だったのかも知れない。このままAIの規模を拡大していったら、どこかで本当に自我を持つのかも知れない…。

    2023/03/28 リンク

    その他
    takuver4
    takuver4 ふえー難しい。酒を飲みながらじゃ無理だわ。明日に読み直す

    2023/03/28 リンク

    その他
    deztecjp
    deztecjp AIの話題において、この記事のような定義で「意味」という言葉を用いる界隈があるのか、それとも著者の独自定義なのか。そこだけ引っ掛かった。通常の定義では「意味に届いて」いないことは相変わらず明白。

    2023/03/28 リンク

    その他
    tattyu
    tattyu 試しにうなぎ文を入れてみたら3.5ではI am an eel.になってしまったが、4ではI would like eel,please.になった。凄い。https://youtu.be/yzTqAU_kiKM

    2023/03/28 リンク

    その他
    raitu
    raitu “文法を解析するのとおんなじ仕組みを高く積み上げていったら意味まで届いてしまった。マジで凄い。まさに量質転換ですね。”

    2023/03/28 リンク

    その他
    misshiki
    misshiki “全3回のシリーズパート2の本記事では、GPTの能力と可能性をAttention/Transformerの仕組みをふまえて考察...パート2は以下の3回に... (2.1)各技術の定性的な説明(本記事)”

    2023/03/28 リンク

    その他
    ryousanngata
    ryousanngata “したがって、英語と日本語で、意味としては同じ内容の言葉をChatGPTに与えた場合、英語のほうがクオリティは基本的には高くなります。”

    2023/03/28 リンク

    その他
    ikedas
    ikedas いやー面白い面白い。次も楽しみ。

    2023/03/28 リンク

    その他
    iku-sawa11
    iku-sawa11 英語とかの人間の勉強にも言えることな気がする(圧倒的な量が質を変える

    2023/03/28 リンク

    その他
    sds-page
    sds-page 段数増やして入力データも増やしたことで文章の意味以上の何かも理解できるようになったんかな

    2023/03/28 リンク

    その他
    Guro
    Guro “どちらかというと文法や構文の解析を目的としてるだけに見えてしまう方法だけで、それをとにかく何階層も繰り返して解析していくと意味レベルまで到達してしまった。”

    2023/03/28 リンク

    その他
    hasiduki
    hasiduki ほえーすっごい!!!!!

    2023/03/28 リンク

    その他
    manimoto
    manimoto "文法や構文の解析を目的としてるだけに見える方法だけで、それを何階層も繰り返して解析していくと意味レベルまで到達してしまった。まさに量質転換 " ここはもう人間の認知では追いつけないところなんだろうなぁ…

    2023/03/27 リンク

    その他
    enemyoffreedom
    enemyoffreedom "構文解析と意味解析は不可分だが別のもの"という理解だったが、こうして量の増大が質の変化につながる(ように見える)さまを見ると色々揺らぐな。時間をとって本格的に再勉強するか

    2023/03/27 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    GPTの仕組みと限界についての考察(2.1) - conceptualization

    全3回のシリーズパート2の記事では、GPTの能力と可能性をAttention/Transformerの仕組みをふまえて...

    ブックマークしたユーザー

    • phare2023/06/29 phare
    • muranaga2023/06/22 muranaga
    • thaturn2023/06/20 thaturn
    • irbs2023/06/12 irbs
    • hatebunbun2023/06/11 hatebunbun
    • Lie_Room2023/05/27 Lie_Room
    • ChillOut2023/05/25 ChillOut
    • sc3wp06ga2023/05/24 sc3wp06ga
    • tasanobu2023/05/23 tasanobu
    • hmori522023/05/23 hmori52
    • Makeneko2023/05/23 Makeneko
    • sochankun2023/05/23 sochankun
    • tal92023/05/23 tal9
    • cvl-robot2023/05/23 cvl-robot
    • shodai2023/05/23 shodai
    • heatman2023/04/21 heatman
    • fjwr382023/04/18 fjwr38
    • shiba_yu362023/04/18 shiba_yu36
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事