isobe324649のブックマーク (3)

  • LLM chatbotが人類にもたらすのは、絶望なのか希望なのか - 渋谷駅前で働くデータサイエンティストのブログ

    ちょっと前に以下のようなことを放言したら、思いの外反響が多くてちょっとびっくりしたのでした。それだけ、現代のLLM chatbot / generative AIの台頭に期待と不安を抱いている人が多いということの裏返しなのでしょう。 既に色々コメントが出ているけど、我々人類が「知的労働」だと思っていることの大半が実は「過去実績をなぞって適当にその場に合わせて組み立てているだけ」なんじゃないかと訝っているので、そういう「自称知的労働」は多分LLMで代替されると思う。新奇なものを生み出す仕事は相変わらず残る https://t.co/GGK41vSDcn— TJO (@TJO_datasci) 2023年3月15日 昨年の年末振り返り記事でも話題にしたChatGPT(そして後続の各種LLM chatbot)ですが、今年に入ってからの話題の広がり方には想像を超えるものがあり、ついに朝の情報番組な

    LLM chatbotが人類にもたらすのは、絶望なのか希望なのか - 渋谷駅前で働くデータサイエンティストのブログ
    isobe324649
    isobe324649 2023/03/28
    NNの理論解析っt面白そう。どんな手法が使えるんだろう?パラメータ空間上の幾何学的解析なら情報幾何学ということになるのかもしれないけど、どちらかというと実行時にNNに流れる数値のほうを解釈したい気がする。
  • GPTの仕組みと限界についての考察(1) - conceptualization

    GPT4が登場してChatGPTが盛り上がってますね。 記事は、GPT(を支えるTransformerという仕組み)をChatGPTユーザにとって分かりやすく説明し、その能力と限界についての見通しをよくしよう、という趣旨になります。 少し長くなりそうなので、全部で記事を3回に分けようと思います。 (1)大まかな背景と概要:記事 (2)GPTの能力と可能性:実際の使用例とTransformerの仕組みを踏まえて説明 (3)GPTの限界と未来展望:Transformerの仕組みが持つ限界と研究の進展を予想 GPT3と4の違い: トークン長とは何か? まずここから話を始めます。GPT-3は、パラメータ数が750億個(850GBの容量をう)でトークン長が4097(GPT-3.5)でした。GPT-4は、パラメータ数は非公開でトークン長は32768ですので、ちょうど8倍になります。 さて、トーク

    GPTの仕組みと限界についての考察(1) - conceptualization
    isobe324649
    isobe324649 2023/03/27
    ブログ主です。続きを書きました。https://isobe324649.hatenablog.com/entry/2023/03/27/064121
  • 数式を使わないTransformerの解説(前編) - conceptualization

    2023/3/23 追記: こちら半年以上前に執筆したもので、その後私の理解も進んで内容的に更新したいところが結構あるため、近日中に非公開とさせていただき,更新後に再公開させていただくつもりです。現時点での記事の内容は、大きく間違ってはいないけどちらほら微妙なところがあるという感じです。 (ざっくり理解するだけでも良いという人にはそれでも良いかもしれませんが、そういう方向けには 今執筆中のこちらの記事 をおすすめします。) −−−− 最近話題のmidjourneyやDALL-E、凄いですよね。中身はディープラーニング(DNN)のようです。DNNといっても色んな技術がありますが、それらにはTransformerという手法が使われています。記事は、その手法がどんなものであるかを数式を使わずに説明してみよう、という主旨になります。 ※なお記事は機械学習のプロの研究者ではない私の独自の解釈が

    数式を使わないTransformerの解説(前編) - conceptualization
    isobe324649
    isobe324649 2023/03/23
    筆者です。本記事は半年以上に書き始めて、その後私の理解も進んで少し内容を更新したいので、いったん非公開とさせてください。読んでいただく機会が増えたため、中編、後編ともにこちらも完結させるつもりです。
  • 1