並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 16 件 / 16件

新着順 人気順

RAGの検索結果1 - 16 件 / 16件

  • 10年前、150万円で買ったNVIDIA株が4億円になった人の話→「私なら10倍くらいで手放してしまう…」

    FabyΔ @FABYMETAL4 メタラー兼業投資家。2013年にNVIDIA $NVDA に150万円投資し10年間ガチホ中。2024年に生成AIの登場で 150万円→4億円 (280倍) を達成。米国企業決算、 AI技術、Tech業界、特にNVIDIAに関する発信をしています。たまにメタル界隈にPOPします🤘 FabyΔ @FABYMETAL4 本日、ガチホ10年目のNVIDIAが150万円→4億円(280倍)を達成しました。NVIDIAには感謝の一言に尽きます。ありがとう $NVDA pic.twitter.com/WEnJm1Ks8K x.com/fabymetal4/sta… 2024-06-06 05:46:25 FabyΔ @FABYMETAL4 本日、保有10年目のNVIDIAが 円換算で150万円→3億円(200倍)となりました。 先日のGTCの基調講演の内容も素晴ら

      10年前、150万円で買ったNVIDIA株が4億円になった人の話→「私なら10倍くらいで手放してしまう…」
    • GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す

      導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 RAGのシステムでは一般的に、断片化されたテキストをEmbeddingによってベクトル化し、関連する情報を検索、そして質問に回答するという形式が採用されるかと思います。 しかし本来、RAGのデータソースは断片化されたテキストに限定はされていません。その一つとして、Knowledge Graph(知識グラフ)というものが存在します。 本記事では、そんなKnowledge Graphを利用した新しいRAGのシステム、GNN-RAGについて紹介します。 サマリー GNN-RAGは、Knowledge Graphから関連するデータの取得にGNNを使用します。この手法を利用することで、既存のKnowledge Gr

        GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す
      • LLMにまつわる"評価"を整理する

        「LLMの評価」というフレーズを見て、どんなことを思い浮かべるでしょうか? おそらく大半はLLMモデル自体の評価のことを思い浮かべると思います。新しいモデルが出てきた時に𝕏で見かける「GPT-4o のMMLUベンチマークは89%!」みたいなアレ。 ですが、プロダクト開発にLLMを使っている人の間では、プロンプト等が十分な品質を出しているかの確認などにも評価という言葉を使っていることは多いのではないかと思います。 うまい具合に後者を区別するためにいい感じの呼び名を付与したい気持ちがあるのですが、英語圏での例を見てみるとシンプルに"Evals"と呼んでることもあれば Evaluating LLM System Evaluating LLM-based Applications などなど表現の仕方は様々になっています。 そしてそのプロダクト開発文脈での評価も、実態としてはオフライン評価やオンラ

          LLMにまつわる"評価"を整理する
        • Elasticsearch piped query language, ES|QL, now generally available — Elastic Search Labs

          Elasticsearch piped query language, ES|QL, now generally available Today, we are pleased to announce the general availability of ES|QL (Elasticsearch Query Language), a dynamic language designed from the ground up to transform, enrich, and simplify data investigations. Powered by a new query engine, ES|QL delivers advanced search using simple and familiar query syntax with concurrent processing, e

            Elasticsearch piped query language, ES|QL, now generally available — Elastic Search Labs
          • 何が凄いのか?最新の技術GraphRAGについて解説してみた

            こんにちは、にゃんたです。 今回は、言語モデルでよく使われるRAGという技術を拡張させた GraphRAGという技術について解説してみました😆 使いこなせると結構実用的だと思うので是非見てみてください! ■LINE公式で限定コンテンツ配布中! ▼登録はこちらから行えます▼ https://liff.line.me/2004040861-3Jvq4bAG 今ならキーワード「プレゼント」と入力すると ・ChatGPTのプロンプトまとめ ・Caludeのプロンプトまとめ ・Difyのまとめ を無料でお渡ししています! ■チャプター 00:00 オープニング 01:48 RAGについて 09:06 GraphRAGについて 12:50 実際に使ってみる ■Googleコラボのリンク https://colab.research.google.com/github/nyanta012/de

              何が凄いのか?最新の技術GraphRAGについて解説してみた
            • NPUではなくeGPU側で「Windows Copilot Runtime」を処理 NVIDIAが定義する“RTX AI PC” 2024年後半にプレビュー版が登場

              NPUではなくeGPU側で「Windows Copilot Runtime」を処理 NVIDIAが定義する“RTX AI PC” 2024年後半にプレビュー版が登場:COMPUTEX TAIPEI 2024 米NVIDIAは6月2日(台湾時間)、「COMPUTEX TAIPEI 2024」(6月4~7日、台湾・台北市)に先駆けて基調講演を開催した。その中で、同社のdGPU(外部GPU)を利用できるノートPCが期間中にメーカー各社から続々と発表される予定であることをアピールしたが、同社はそれらのモデルを“RTX AI PC”と定義している。 その背景には、SoCに搭載されたNPUで本来行われる想定の処理をdGPU側で処理できるようになる新たな仕組みが米Microsoftと協力して開発されていることが挙げられる。 具体的には、AIプロセッサ(NPU)の利用をソフトウェア開発者がAPIとして呼び

                NPUではなくeGPU側で「Windows Copilot Runtime」を処理 NVIDIAが定義する“RTX AI PC” 2024年後半にプレビュー版が登場
              • Fate Stay Nightで学ぶGraphRAG(GoogleColab付) - Sun wood AI labs.2

                はじめに Graph retrieval augmented generation (Graph RAG) は、従来のベクター検索による情報検索手法に強力な手法として注目を集めています。Graph RAGは、データをノードと関係性で構造化するグラフデータベースの特性を活かし、検索された情報の深さと文脈性を高めます。 本記事では、人気アニメ「Fate Stay Night」のWikipediaデータを使って、LangChainとNeo4jを用いたGraph RAGの実践的な構築方法を初心者向けに解説します。 環境のセットアップ まずは必要なライブラリをインストールしましょう。 %%capture %pip install --upgrade --quiet langchain langchain-community langchain-openai langchain-experimenta

                • Five Levels Of AI Agents

                  IntroductionThis is a topic I really enjoyed researching and I was looking forward to writing this. Mostly because I wanted to demystify the idea of agents and what exactly constitutes an agent. Together I wanted to create a clear delineation between domain specific implementations and wide, general implementations which are referred to as AGI. Considering domain specific implementations, this is

                    Five Levels Of AI Agents
                  • AIは既存データセンターで動かせない--デルのCTOに聞く方策

                    印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます Dell Technologiesは、同社の年次イベント「Dell Technologies World 2024」で、AI時代に向けた戦略を明確に示した。中核は、イベントで発表した「Dell AI Factory」で、NVIDIAの技術を利用する「Dell AI Factory with NVIDIA」とは分けている。グローバル最高技術責任者(CTO)のJohn Roose氏に、Dell AI Factoryなどの施策を聞いた。 ――Dell AI Factoryを発表しました。AI向けインフラの技術スタックといいますが、開発の背景を教えてください。 われわれは、エンタープライズに注力しています。企業がAIを導入する場合、サードパーテ

                      AIは既存データセンターで動かせない--デルのCTOに聞く方策
                    • 世界初の技術で企業ニーズに対応した特化型生成AIを自動生成!エンタープライズ生成AIフレームワークを提供 : 富士通

                      PRESS RELEASE 2024年6月4日 富士通株式会社 世界初の技術で企業ニーズに対応した特化型生成AIを自動生成! エンタープライズ生成AIフレームワークを提供 ナレッジグラフで構造化した膨大な企業データから生成AIの高信頼な出力を実現 当社は、企業における生成AIの活用促進に向けて、多様かつ変化する企業ニーズに柔軟に対応し、企業が持つ膨大なデータや法令への準拠を容易に実現するエンタープライズ生成AIフレームワークを開発し、2024年7月よりAIサービス「Fujitsu Kozuchi」のラインナップとして順次提供を開始します。 近年、汎用の対話型LLMだけでなく、様々な特化型生成AIモデルが開発されていますが、特に企業においては、企業で必要とされる大規模データの取り扱いが困難、生成AIがコストや応答速度をはじめとする多様な要件を満たせない、企業規則や法令への準拠が求められること

                        世界初の技術で企業ニーズに対応した特化型生成AIを自動生成!エンタープライズ生成AIフレームワークを提供 : 富士通
                      • Snowflake Summit 2024で発表されたアプリケーション機能群のアップデートポイント - Qiita

                        はじめに 本記事は、Snowflake Data Cloud Summit 2024 の Platform Keynote で発表されたデータアプリケーション機能に関連するアップデート情報を紹介します!セッションとしては、後半の後半のあたりに該当する部分です。本キーノートの配信を視聴することもできるので、気になる方はぜひ御覧ください! 本記事では、下記の項目で解説します。 Snowpark for Python Snowflake Notebooks Snowflake Cortex Snowpark Container Services Hybrid Table Dev/MLOps また先日、同様のカテゴリで各機能の概要を解説した記事も投稿しています。ぜひあわせて御覧ください! 概要 Platform Keynote では、様々なアップデートの発表がありました!特に、アプリ・LLM 系の

                          Snowflake Summit 2024で発表されたアプリケーション機能群のアップデートポイント - Qiita
                        • Amazon Connectと生成AIについて、「コールセンター/CRM デモ&コンファレンス 2024 in 大阪」で登壇しました | DevelopersIO

                          はじめに 2024年5月29日(水)~30日(木)に大阪にて「コールセンター/CRM デモ&コンファレンス2024 in 大阪」が開催され、弊社はブース出展とセミナー登壇を行いました。 私は、5月30日(木)に「【Amazon Connect × 生成AI活用】短期間で導入可能な次世代型コンタクトセンターのススメ」というセミナーで、「Amazon Connectと生成AIを利用した業務改善の活用例とデモ」というタイトルで登壇しました。 Amazon Connectと生成AI 登壇資料の前に、Amazon Connectの概要と生成AIとの組み合わせについて説明します。 Amazon Connectは、AWSが提供するクラウドベースのコンタクトセンターソリューションであり、音声通話、チャット、タスクの管理など、コンタクトセンターに必要な機能を包括的に提供しています。 一方、生成AIは自然言語

                            Amazon Connectと生成AIについて、「コールセンター/CRM デモ&コンファレンス 2024 in 大阪」で登壇しました | DevelopersIO
                          • GenAI Handbook

                            William Brown @willccbb | willcb.com v0.1 (June 5, 2024) Introduction This document aims to serve as a handbook for learning the key concepts underlying modern artificial intelligence systems. Given the speed of recent development in AI, there really isn’t a good textbook-style source for getting up-to-speed on the latest-and-greatest innovations in LLMs or other generative models, yet there is an

                            • マイクロソフト“Copilot+”が描く、AI中心のパーソナルコンピューター革命

                              下がるCPUアーキテクチャへの依存度Copilot+ PC最初の製品である新型Surfaceに着目すると、クァルコムの最新チップであるSnapDragon Xシリーズを搭載していることに目が行きがちだ。アップルが真っ先にMacをArmに移行させたように、Armアーキテクチャがカバーする応用領域は着実に広がってきた。 それが、x86アーキテクチャを基本としてきたWindowsを開発するマイクロソフトが作る、新しいトレンドとコンセプトを示す主力デバイスにまで広がってきたということは、今後インテルやAMDへは厳しい道のりが…といった文脈を想像しがちだ。 アップルが高性能なSoC*1をMacで展開していることを考えれば、今後、これが世の中のトレンドになるという想像をするかもしれない。 *1:一枚のチップ上に、様々なシステム機能を集合させた半導体製品 しかしインテルやAMDが競っている領域と、Arm

                                マイクロソフト“Copilot+”が描く、AI中心のパーソナルコンピューター革命
                              • 第4回 生成AIの精度を高める「RAG」 | BCG Japan

                                第4回 生成AIの精度を高める「RAG」――ちょっとだけマニアックなAIの話 高柳 慎一(BCG XプリンシパルAIエンジニア) 2024/06/04 デジタル 世界の皆さん、おはようございます、こんにちは、こんばんは。BCG XのプリンシパルAIエンジニア、高柳です。皆さんは、「RAG(Retrieval-Augmented Generation、検索拡張生成)」について聞いたことがあるでしょうか?生成AIの回答精度を高める仕組みのひとつで、ビジネスの現場でも急速に導入が進んでいます。大規模言語モデル(LLM)をより実践的に活用するための技術として、いま最もホットなトピックのひとつです。 今回のポイント RAGによって、大規模言語モデルは専門知識や非公開情報、最新情報を取り入れながら回答を生成できる RAGは追加学習のコストが少なく、性能面でも高い精度が見込める 多様なデータへの対応も進

                                  第4回 生成AIの精度を高める「RAG」 | BCG Japan
                                • What We Learned from a Year of Building with LLMs (Part II)

                                  To hear directly from the authors on this topic, sign up for the upcoming virtual event on June 20th, and learn more from the Generative AI Success Stories Superstream on June 12th. Part I of this series can be found here and part III can be found here. A possibly apocryphal quote attributed to many leaders reads: “Amateurs talk strategy and tactics. Professionals talk operations.” Where the tacti

                                    What We Learned from a Year of Building with LLMs (Part II)
                                  1