タグ

RAGに関するkns_1234のブックマーク (16)

  • これから Dify の話をします…|Sangmin Ahn

    . @dify_ai を複合AIシステム(Compound AI System)と呼んでるのはチャットボットやRAGに加え、複数のツールを自由自在に組み合わせることができるからです。ツールの中にはWolfram Alphaも↓。APIキーを取得し認証を済ませば、月2000回まで無料で使えます。他にも、arXivやBing検索との連携も可👏。 https://t.co/2cP8wZDYnI pic.twitter.com/w2WQMYf5VV — sangmin.eth @ChoimiraiSchool (@gijigae) March 21, 2024

    これから Dify の話をします…|Sangmin Ahn
  • 生成AIの「RAG」とは? 知っておきたい重要キーワードを解説する【イニシャルB】

    生成AIの「RAG」とは? 知っておきたい重要キーワードを解説する【イニシャルB】
    kns_1234
    kns_1234 2024/04/08
  • ナレッジグラフを用いたRAGの改善 - Ahogrammer

    RAG(Retrieval Augmented Generation)は大規模言語モデル(LLM)の性能を改善するための手法の1つであり、質問に対する回答を生成する際に、外部知識源から情報を取り込みます。 これにより、LLM 自体で学習できる情報量に制限されることなく、より正確で詳細な回答を生成することができます。 よく使われているRAGでは、外部知識源として検索エンジンにテキストをインデックスしておき、質問に関連するテキストをベクトル検索や全文検索を用いて取得します。しかし、構造化データを扱うことには苦労するため、質問によっては回答が不十分、あるいはまったく回答できないことに繋がります。 これらの問題を克服するために、ナレッジグラフを用いたRAGが構築されることがあります。ナレッジグラフでは、エンティティとその間の関係がグラフ構造で表現されており、単純な検索を用いた場合には回答できないよ

    ナレッジグラフを用いたRAGの改善 - Ahogrammer
    kns_1234
    kns_1234 2024/03/22
  • ローカルRAG + VSCode拡張であるContinueを使ってClaude 3を先取りする

    導入 Cursor公式ではまだ Anthropic 社のClaude-3に対応してなかったのですが、VSCodeのオープンソースの拡張である continueを使うことでこれが実現できます。 早速導入しましょう。 Claude-3のAPI Keyを入手する 上記のページの"Get API Key"からKeyを取得します。遷移後のページの"Create Key"をクリックしてAPI Keyを生成してください。これをクリップボードにコピーしておきます。 あと忘れてはならないのは$5分の無料のクレジットを有効にすることです。スクショを忘れたのでもう撮れないので画像がないのですが、サイドバーの"Plans & Billing"からクレジットを有効にしてください。電話番号が必要です。 これでAPIが利用できるようになりました。 拡張からcontinueをインストール VSCode拡張機能の検索バー

    ローカルRAG + VSCode拡張であるContinueを使ってClaude 3を先取りする
  • RAG構築のためのAzure OpenAI Serviceリファレンスアーキテクチャ詳解 | SIOS Tech. Lab

    ◆ Live配信スケジュール ◆ サイオステクノロジーでは、Microsoft MVPの武井による「わかりみの深いシリーズ」など、定期的なLive配信を行っています。 ⇒ 詳細スケジュールはこちらから ⇒ 見逃してしまった方はYoutubeチャンネルをご覧ください 【4/18開催】VSCode Dev Containersで楽々開発環境構築祭り〜Python/Reactなどなど〜 Visual Studio Codeの拡張機能であるDev Containersを使ってReactとかPythonとかSpring Bootとかの開発環境をラクチンで構築する方法を紹介するイベントです。 https://tech-lab.connpass.com/event/311864/ こんにちは、サイオステクノロジー武井です。今回は、「RAG構築のためのAzure OpenAI Serviceリファレンスア

    RAG構築のためのAzure OpenAI Serviceリファレンスアーキテクチャ詳解 | SIOS Tech. Lab
    kns_1234
    kns_1234 2024/02/23
  • LangChain v0.1 クイックスタートガイド - Python版|npaka

    Python版の「LangChain」のクイックスタートガイドをまとめました。 ・langchain 0.1.7 1. LangChain「LangChain」は、「大規模言語モデル」 (LLM : Large language models) と連携するアプリの開発を支援するライブラリです。 「LLM」という革新的テクノロジーによって、開発者は今まで不可能だったことが可能になりました。しかし、「LLM」を単独で使用するだけでは、真に強力なアプリケーションを作成するのに不十分です。真の力は、それを他の 計算 や 知識 と組み合わせた時にもたらされます。「LangChain」は、そのようなアプリケーションの開発をサポートします。 主な用途は、次の3つになります。 ・文書に関する質問応答 ・チャットボット ・エージェント v0.1 ではlangchainパッケージが次の3つのパッケージに分割さ

    LangChain v0.1 クイックスタートガイド - Python版|npaka
  • RAG Fusionが思ってたより凄そう

    こちらの記事はForget RAG, the Future is RAG-Fusionを噛み砕いて解釈したものをまとめたものになります。詳細(一次情報)が欲しい方は元の記事を読むことをお勧めします。 概要 RAG Fusionは単なる「新たな手法」ではなく「革新的な手法」です。 RAG Fusionは、従来の検索技術の制約を克服し、ユーザーのクエリに対してより豊かで文脈に即した結果を生成するために、RAG、Reciprocal Rank Fusion、生成されたクエリを組み合わせた新しいシステムになっています。 このシステムは、検索結果のリランキングと複数のユーザークエリ生成により、検索の正確性とユーザーの意図との一致を向上させることを目指した手法となっています。 RAGの課題 RAGにはHallucinationの軽減など、多くの利点がある一方で課題もあります。 RAG Fusion開発

    RAG Fusionが思ってたより凄そう
  • RAGの性能を改善するための8つの戦略 | Fintan

    近年、OpenAIのGPT-4やGoogleのGemini、MetaのLLaMAをはじめとする大規模言語モデル(Large Language Model:LLM)の能力が大幅に向上し、自然言語処理において優れた結果を収めています[1][2][3]。これらのLLMは、膨大な量のテキストデータで学習されており、さまざまな自然言語処理タスクにおいて、タスクに固有なデータを用いてモデルをファインチューニングすることなく、より正確で自然なテキスト生成や、複雑な質問への回答が可能となっています。 LLM-jp-eval[4]およびMT-bench-jp[5]を用いた日語LLMの評価結果。Nejumi LLMリーダーボード Neoより取得。 大規模言語モデルは近年急速な進歩を遂げていますが、これらの進歩にもかかわらず、裏付けのない情報や矛盾した内容を生成する点においては依然として課題があります。たとえ

    RAGの性能を改善するための8つの戦略 | Fintan
  • LLMのRAG(外部知識検索による強化)をまとめた調査報告 | AIDB

    LLMのRAG(外部知識検索による強化)についての調査結果が報告されています。 基フレームワークと各構成要素の詳細、評価、そして今後の発展について言及されており網羅的です。 記事では、その報告内容を抜粋してお届けします。 参照論文情報 タイトル:Retrieval-Augmented Generation for Large Language Models: A Survey 著者:Yunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi Bi, Yi Dai, Jiawei Sun, Haofen Wang 所属:Tongji University, Fudan University URL:https://doi.org/10.48550/arXiv.2312.10997 記事の関連研究:LLMにナレッジグ

    LLMのRAG(外部知識検索による強化)をまとめた調査報告 | AIDB
  • GPTsより精度の高いRAGシステムの構築

    Templates, Plugins, & Blocks: Oh My! Creating the theme that thinks of everything

    GPTsより精度の高いRAGシステムの構築
  • RAG用途に使える、Wikipedia 日本語の embeddings とベクトル検索用の faiss index を作った - A Day in the Life

    この記事は、情報検索・検索技術 Advent Calendar 2023の12月4日の記事である。 昨今のLLMの台頭により、外部情報を In-Context Learning として利用しLLMの生成結果の性能を高めることが可能な RAG(Retrieval Augmented Generation) の重要性の高まりを感じる。ただ、RAG を使ったシステムを構築してみようにも、データが少ないと面白みが少なかったりする。その為、Wikipedia語の約550万文から簡単に検索可能でRAGの入力データとして使えるような embeddings と、素早い速度でベクトル検索できるような faiss 用の index を作成した。 例えば、Wikipedia から該当の文を検索する用途はこのように使える。 from datasets.download import DownloadMana

    RAG用途に使える、Wikipedia 日本語の embeddings とベクトル検索用の faiss index を作った - A Day in the Life
  • Building and Evaluating Advanced RAG Applications

    Learn methods like sentence-window retrieval and auto-merging retrieval, improving your RAG pipeline's performance beyond the baseline.Learn evaluation best practices to streamline your process, and iteratively build a robust system.Dive into the RAG triad for evaluating the relevance and truthfulness of an LLM's response:Context Relevance, Groundedness, and Answer Relevance. Retrieval Augmented G

    Building and Evaluating Advanced RAG Applications
  • RAG評価ツールの "RAGAS" を使って、RAGパイプラインの性能を測定する - Qiita

    はじめに こんにちは、KDDIアジャイル開発センターのはしもと(仮名)です。 LLMで何かしたい勢のみなさま、検索拡張生成こと RAG (Retrieval Augmented Generation)、やってますか? 自社で持っているデータを使ってエンタープライズサーチを実現したい、それができればきっと無敵。そう考えて色々やろうとしているんじゃないでしょうか。私です。 RAGを使って意図した出力を得られるようにするには、十分なデータセットを準備したりパラメータを変更しながらチューニングをするなど、地道な作業が必要となります。 開発ライフサイクルにおける評価・テストステップで有効な、評価用フレームワーク RAGAS を使ってみましたので、記事ではそれについてまとめます。 RAGASとは RAGパイプラインを評価/テストするためのフレームワークです。 パイプラインを構築するためのツールは多く

    RAG評価ツールの "RAGAS" を使って、RAGパイプラインの性能を測定する - Qiita
  • 嘘ばっかり答えるチャットボットをわざわざベクトル検索を使って実装する #役に立たないLLM|松xRのnote

    新しいLLMが出る度に話題になるのが、正確な知識を持っているかということです。LLMが嘘をまるで当かのように話すことはハルシネーション(幻覚)と呼ばれ、課題となっています。 そのハルシネーションに対処する技術として、ベクトル検索を合わせたRAG(Retrieval-Augmented Generation)があります。ざっくり言うと、正確な内容を保持したデータベースを用意し、ユーザーから寄せられた質問に関連する内容をデータベースから引っ張ってきて、その内容をプロンプトに入れることで、LLMが持っていない知識についても正確な回答をさせようというものです。例えば、LLMが知っているはずがない、社内ドキュメントを検索する手法として使われ始めています。 そこで、ふと、思ったんです。データベースに嘘を用意しておいて、それを使ってRAGすれば、嘘を答えるBotが作れるんじゃないかって。 というわけで

    嘘ばっかり答えるチャットボットをわざわざベクトル検索を使って実装する #役に立たないLLM|松xRのnote
  • 実践LangChain!RAGによる特化LLMシステムの作り方 - Qiita

    はじめに ChatGPTを初めとした大規模言語モデル (LLM) が話題になっており、ちょっとした質問でも非常に優れたアウトプットが得られるようになりました。一方、ChatGPTを企業で使用する場合、社内情報をChatGPTは保持していないため、社内情報について答えられないという課題があり、社内特化LLMシステムを構築する必要があります。 特化システムを作るためには、こちらの記事でも紹介している通りLLMそのものをfine tuningする方法と、LangChainを使ってVector MatchingするRetrieval Augmented Generation (RAG) の2つがあります。ただ、LLMのfine tuningは非常に大きな計算コストとデータセット構築作業が必要になります。 記事では、RAGによる特化LLMシステムの構築方法を紹介します。記事内で使用するLLMはG

    実践LangChain!RAGによる特化LLMシステムの作り方 - Qiita
  • 1