並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 4 件 / 4件

新着順 人気順

DeepLearningの検索結果1 - 4 件 / 4件

  • LLM時代のX情報収集術|べいえりあ

    AI for Everyoneについては日本語版もあるのと、どちらのコースも日本語字幕付きで見られる(多分機械翻訳での英語字幕からの翻訳だが、翻訳の質は悪くない)ので、英語分からなくてある程度何とかなるんじゃないかと思います。 あと、余力のある人、最新のNLP研究を理解したい人はこちらの本を読むことをオススメします。アルゴリズムの詳細は必ずしも理解しなくても良いですが、どんなタスクがあるのかは理解しておいた方が良いかと思います。 NLPの知識がLLMを応用する上で実際にどう役に立つかですが、例えばで言うとNLP的には対話の中には「タスク指向型対話(task-oriented dialogue)」と「雑談(chit-chat dialogue)」があります。それぞれ対話の中で重要視されるものから評価の仕方まで全然違うのですが、NLPをやらずにLLMをやっている人と話しているとこれらをごっちゃ

      LLM時代のX情報収集術|べいえりあ
    • 生成AIを賢くするには「メガプロンプト」がお勧め、ファインチューニングは有害?

      生成AI(人工知能)の活用においては、大規模言語モデル(LLM)に与えるプロンプト(指示文)の工夫が重要だ。最新の研究で、プロンプトは長く詳細であるほど良好な結果が得られることが分かっており「メガプロンプト(巨大プロンプト)」という言葉すら登場しているほどだ。 LLMに与えるプロンプトというと、米OpenAI(オープンAI)が提供するChatGPTのようなチャットボットの入力画面に打ち込む数行のテキストを想像しがちだ。しかし先進的なAI研究者は最近、紙に印刷すると1~2ページにも及ぶような、とても長いプロンプトの開発に取り組んでいるのだという。 「私たちのチームではそれをメガプロンプトと呼んでいる」。ディープラーニング(深層学習)の著名研究者で、AI教育サービスを手掛ける米DeepLearning.AI(ディープラーニングドットAI)の創業者であるAndrew Ng(アンドリュー・ウン)氏

        生成AIを賢くするには「メガプロンプト」がお勧め、ファインチューニングは有害?
      • 【DL輪読会】KAN: Kolmogorov–Arnold Networks | ドクセル

        【DL輪読会】Evolutionary Optimization of Model Merging Recipes モデルマージの進化的最適化

          【DL輪読会】KAN: Kolmogorov–Arnold Networks | ドクセル
        • OpenAI's Rules for Model Behavior, Better Brain-Controlled Robots, and more

          Dear friends, In the last couple of days, Google announced a doubling of Gemini Pro 1.5's input context window from 1 million to 2 million tokens, and OpenAI released GPT-4o, which generates tokens 2x faster and 50% cheaper than GPT-4 Turbo and natively accepts and generates multimodal tokens. I view these developments as the latest in an 18-month trend. Given the improvements we've seen, best pra

            OpenAI's Rules for Model Behavior, Better Brain-Controlled Robots, and more
          1