並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 16 件 / 16件

新着順 人気順

Generationの検索結果1 - 16 件 / 16件

  • Secrets from the Algorithm: Google Search’s Internal Engineering Documentation Has Leaked

    Google, if you’re reading this, it’s too late. Ok. Cracks knuckles. Let’s get right to it. Internal documentation for Google Search’s Content Warehouse API has leaked. Google’s internal microservices appear to mirror what Google Cloud Platform offers and the internal version of documentation for the deprecated Document AI Warehouse was accidentally published publicly to a code repository for the c

      Secrets from the Algorithm: Google Search’s Internal Engineering Documentation Has Leaked
    • オープンソースのRAGアプリ「RAGFlow」を試す

      かなり新し目のフレームワークRAGプラットフォームアプリ RAGFlowとは? RAGFlowは、深い文書理解に基づいたオープンソースのRAG(Retrieval-Augmented Generation)エンジンである。LLM(大規模言語モデル)を組み合わせることで、様々な複雑なフォーマットのデータから根拠のある引用に裏打ちされた、真実味のある質問応答機能を提供し、あらゆる規模のビジネスに合理化されたRAGワークフローを提供する。

        オープンソースのRAGアプリ「RAGFlow」を試す
      • 社内文書検索&QAシステムの RAG ではないところ - Algomatic Tech Blog

        こんにちは。NEO(x) 機械学習エンジニアの宮脇(@catshun_)です。 RAG システムの開発、いざ業務に統合するとなると結構大変ですよね。 構築してみたがユーザ数が伸びず、、なんてことはよくあると思います。 実際こんな記事も話題になりましたね。 本記事では、コラムとして RAG システムの設計で考慮したい点を自戒を込めて記述したいと思います。 誤っている記述等もあると思いますが、本記事を読んだ方の議論のネタになってくれれば幸いです。 また Retrieval-based LM の技術的な話は、以下で触れておりますので併せてご覧ください。 RAG とは RAG (Retrieval-Augmented Generation) とは、社内文書・長期記憶に該当する対話履歴・API 仕様書などの 外部知識資源 を、言語モデルが扱えるよう入力系列に挿入する手法です。もともと Lewis+'

          社内文書検索&QAシステムの RAG ではないところ - Algomatic Tech Blog
        • What We Learned from a Year of Building with LLMs (Part I)

          Join the O'Reilly online learning platform. Get a free trial today and find answers on the fly, or master something new and useful. Learn more It’s an exciting time to build with large language models (LLMs). Over the past year, LLMs have become “good enough” for real-world applications. The pace of improvements in LLMs, coupled with a parade of demos on social media, will fuel an estimated $200B

            What We Learned from a Year of Building with LLMs (Part I)
          • RAGで文書を1トークンに圧縮する「xRAG」について

            株式会社ナレッジセンスは、生成AIやRAGを使ったプロダクトを、エンタープライズ向けに開発提供しているスタートアップです。 本記事では、「xRAG」という手法について、ざっくり理解します。「xRAG」とは、RAGシステムでLLMに投げるドキュメント(通常、数千文字ほどですよね。)を、1トークンに圧縮できるのでは?という手法です。 この記事は何 この記事は、RAGをする際にLLMに渡すドキュメントを1トークンまで圧縮できる手法「xRAG」の論文[1]について、日本語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 本題 ざっくりサマリー 「xRAG」は、RAGで渡すコンテキストを極限まで圧縮する手法です。北京大学/Microsoftの研究者らによって2024年5月に提案されました。「xRAG」を使うメリッ

              RAGで文書を1トークンに圧縮する「xRAG」について
            • Codestral: Hello, World!

              Codestral: Hello, World!Empowering developers and democratising coding with Mistral AI. We introduce Codestral, our first-ever code model. Codestral is an open-weight generative AI model explicitly designed for code generation tasks. It helps developers write and interact with code through a shared instruction and completion API endpoint. As it masters code and English, it can be used to design ad

              • Gemini 1.5 Proを使って自分の強みを分析してみた - G-gen Tech Blog

                G-gen の神谷です。今回、Gemini 1.5 Pro を活用して、ビジネス心理テストであるストレングスファインダーで自身の強みを分析し、AI によるマネジメントやメンタリングが可能か、試してみました。本記事では、その取り組みの詳細をご紹介します。 ストレングスファインダーとは Strength Mentor Bot の作成 Gemini 1.5 Pro を使った実装 34の資質を JSON 形式で抽出 BigQuery への保存と分析 チームビルディングへの応用 ストレングスファインダーとは まず、ストレングスファインダーについて説明します。 ストレングスファインダーは、個人の強みを特定し、それを活かすための評価ツールです。クリフトンという心理学者によって開発され、現在はギャラップ社が提供しています。 34の資質(強み)を測定し、個人の弱みではなく強みに焦点を当てることで、より良いパ

                  Gemini 1.5 Proを使って自分の強みを分析してみた - G-gen Tech Blog
                • Stripe's monorepo developer environment - Made of Bugs

                  I worked at Stripe for about seven years, from 2012 to 2019. Over that time, I used and contributed to many generations of Stripe’s developer environment – the tools that engineers used daily to write and test code. I think Stripe did a pretty good job designing and building that developer experience, and since leaving, I’ve found myself repeatedly describing features of that environment to friend

                  • ローカルLLMの長文推論、メモリ使用量を節約する方法:KVキャッシュの量子化|AIサトシ

                    大規模言語モデル(LLM)において、メモリ使用量の効率化は非常に重要です。特に長文処理を行う場合です。モデルに入力するコンテクストが長くなるほど、メモリ消費量も増加します。 プロンプトに入力する文字数(Token数)と必要メモリについて計算したメモ📝 精度との兼ね合いですが、長文扱うときは、mistral-v0.1圧倒的にコスパ良い pic.twitter.com/Nqn5SXDZ9u — AI𝕏サトシ⏩ (@AiXsatoshi) May 27, 2024 Mistral-7Bは、v0.1では、約4K tokensのSliding window attention(SWA)にて、コンテクスト長に消費されるメモリを低減しました。しかし、性能への影響からと考えますが、v0.2以降のアップデートで、SWAは排除されています。入力トークンを絞ることでメモリ容量を低減すれば、当然複雑性や表現力

                      ローカルLLMの長文推論、メモリ使用量を節約する方法:KVキャッシュの量子化|AIサトシ
                    • New AI tools much hyped but not much used, study says

                      AI products like ChatGPT much hyped but not much used, study says Very few people are regularly using "much hyped" artificial intelligence (AI) products like ChatGPT, a survey suggests. Researchers surveyed 12,000 people in six countries, including the UK, with only 2% of British respondents saying they use such tools on a daily basis. But the study, from the Reuters Institute and Oxford Universit

                        New AI tools much hyped but not much used, study says
                      • 基盤モデルを用いたAIエージェントの設計パターン - Sun wood AI labs.2

                        はじめに 近年、人工知能(AI: Artificial Intelligence)の分野では、AIエージェント(AI Agents)と呼ばれる技術が大きな注目を集めています。AIエージェントとは、人間に代わって自律的に行動し、目標を達成するためのソフトウェアシステムのことです。 特に、大規模な言語モデルや画像生成モデルなどの基盤モデル(Foundation Models)を用いたAIエージェントは、高度な推論能力と言語処理能力を持ち、ユーザーの目的を理解し、それを達成するために自発的に行動することができます。そのため、様々な分野での応用が期待されています。 しかし、このようなAIエージェントを開発する際には、目標設定の難しさや推論プロセスの説明性の欠如、責任の所在の複雑さなど、様々な課題が存在します。また、基盤モデルに内在する幻覚(Hallucinations)の問題もあります。 これらの

                        • Apple、AirPods Pro第2世代に新ファームウェア公開 - こぼねみ

                          Appleは日本時間5月29日、LightningおよびUSB-C版のAirPods Pro (第 2 世代) 向けに新しいファームウェアをリリースしました。 新しいファームウェアは「6F7」。これまでの最新バージョンは2023年12月にリリースされた「6B34」です(詳細記事)。 AirPods Pro (第2世代)リリースノートによると、「バグの修正とその他の改善点」となっています。 iOS 16以降にアップデートしたiPhoneでは、 設定 > My AirPods 設定 > 一般 > 情報 > My AirPods から、ファームウェアバージョンを確認できます。 前者からたどっていくと、サポートページへのリンクがあります。 AirPodsを手動でアップデートする方法はまだなく、AirPodsが充電中で、iPhone、iPad、MacのBluetooth範囲内のときに、新しいファーム

                            Apple、AirPods Pro第2世代に新ファームウェア公開 - こぼねみ
                          • How ransomware abuses BitLocker

                            Introduction Attackers always find creative ways to bypass defensive features and accomplish their goals. This can be done with packers, crypters, and code obfuscation. However, one of the best ways of evading detection, as well as maximizing compatibility, is to use the operating system’s own features. In the context of ransomware threats, one notable example is leveraging exported functions pres

                              How ransomware abuses BitLocker
                            • Stable Diffusion API を使って塗り絵 自動生成アプリを作る

                              Stable Diffusion は、GPU を利用した画像生成 AI の中でも最も有名なプロダクトだと思います。Stable Diffusion の利用者は一般的にまず GPU を準備し、そこで環境を構築してから画像生成を行うのですが、今回は Stability AI(Stable Diffusion の開発元)の用意している API を利用して、塗り絵の自動生成を作ってみました。 塗り絵 自動生成: https://color-painting.vercel.app/ 子どもたちのために、塗り絵を自動生成するサービスです。この記事では、どのようにこのアプリを作ったのか簡単に紹介しております。コードは全て JavaScript です。 ソースコードも github で公開しています。Stability AI Developer Platform, Vercel, Google reCAP

                              • API連携はエージェントAI同士の交流へ─アクセンチュアが今後の技術トレンドを解説 | IT Leaders

                                IT Leaders トップ > テクノロジー一覧 > AI > 技術解説 > API連携はエージェントAI同士の交流へ─アクセンチュアが今後の技術トレンドを解説 AI AI記事一覧へ [技術解説] API連携はエージェントAI同士の交流へ─アクセンチュアが今後の技術トレンドを解説 2024年5月27日(月)日川 佳三(IT Leaders編集部) リスト アクセンチュアは2024年5月27日、説明会を開き、今後数年間でビジネスに大きな影響をもたらす重要な技術のトレンドを予測した年次レポート「Technology Vision 2024」(同年1月公開)のポイントを解説した。2024年のコンセプトとして「(AIと人間の)共進化」を挙げる。「AIに人間性を組み込むことで、テクノロジーがより人間らしくなる。人間の能力がテクノロジーで拡張されていく」(同社)としている。 アクセンチュア(Acce

                                  API連携はエージェントAI同士の交流へ─アクセンチュアが今後の技術トレンドを解説 | IT Leaders
                                • F# developer stories: how we've finally fixed a 9-year-old performance issue - .NET Blog

                                  Programming language authors have to think about many things at once: overall language design, runtime dangers, possible feature misuse, backward compatibility, forward compatibility, and so on. All these aspects, together with communication hiccups and time constraints, might get in the way of some seemingly clear and manageable problems. The Bug The story began in the summer of 2015 with this is

                                    F# developer stories: how we've finally fixed a 9-year-old performance issue - .NET Blog
                                  1