並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 73件

新着順 人気順

Generationの検索結果1 - 40 件 / 73件

  • なぜこれで風車が回るのか…革新の風力発電を世界へ 長岡技術科学大学からスタートアップNew Wind power generation【NIIGATA StartUP⑥】スーパーJにいがた7月7日OA

    長岡技術科学大学で設立された学内ベンチャーのスタートアップ企業が、従来とは異なる革新的なデザインをの風力発電の開発をすすめています。再生可能エネルギー、SDGsなどの観点からも注目を集めています。 New Wind power generation Pantarhei Nagaoka 2023年7月7日放送時点の情報です 📝ーーーーーーーーーーーーー 【最新記事】 「風力発電を文化に」スタートアップ企業 斬新デザインの試作機が完成【新潟】スーパーJにいがた3月13日OA https://youtu.be/tV9incidODY ーーーーーーーーーーーーー―📝 #長岡市 #風力発電 #スタートアップ #起業 #スタートアップ企業 #新潟 #ux新潟テレビ21

      なぜこれで風車が回るのか…革新の風力発電を世界へ 長岡技術科学大学からスタートアップNew Wind power generation【NIIGATA StartUP⑥】スーパーJにいがた7月7日OA
    • “PCで自宅ChatGPT”がかなり手軽に! GUIで簡単導入でき日本語もOKの「Text generation web UI」【イニシャルB】

        “PCで自宅ChatGPT”がかなり手軽に! GUIで簡単導入でき日本語もOKの「Text generation web UI」【イニシャルB】
      • 自動生成を活用した、運用保守コストを抑える Error/Alert/Runbook の一元集約管理 / Centralized management of Error/Alert/Runbook to minimize operational costs using automated code generation

        DevOpsDays TOKYO 2024 の登壇資料です。 https://confengine.com/conferences/devopsdays-tokyo-2024/proposal/19703/erroralertrunbook-centralized-management-of-erroralertrunbook-to-minimize-operational-costs-using-automated-code-generation

          自動生成を活用した、運用保守コストを抑える Error/Alert/Runbook の一元集約管理 / Centralized management of Error/Alert/Runbook to minimize operational costs using automated code generation
        • LLMを利用したRAG(Retrieval Augmented Generation)と著作権侵害|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】

          1 はじめに 近時、LLMを利用し、社内外の文書データを用いた精度の高いチャットボットを構築するために、RAG(Retrieval Augmented Generation)という手法が注目されています。 LLMをそのまま利用してチャットボットの構築を行うと、通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができないか、あるいは正しくない回答を返してしまいます。 この問題を解決する手法として注目されているのがRAGです。 この手法は、あらかじめ社内外の文書データをデータベース(DB)として準備しておき、ユーザからの質問がなされた場合には、当該質問と関連性が高い文書データを検索し、その文章データを質問文に付加してLLMに入力することで、精度が高い、かつ実際の文書データに紐付いた回答を生成することができるというものです。 ここで、プロンプトに入力するためにDBとして

            LLMを利用したRAG(Retrieval Augmented Generation)と著作権侵害|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】
          • Introducing the next generation of Claude

            Today, we're announcing the Claude 3 model family, which sets new industry benchmarks across a wide range of cognitive tasks. The family includes three state-of-the-art models in ascending order of capability: Claude 3 Haiku, Claude 3 Sonnet, and Claude 3 Opus. Each successive model offers increasingly powerful performance, allowing users to select the optimal balance of intelligence, speed, and c

              Introducing the next generation of Claude
            • GitHub - cumulo-autumn/StreamDiffusion: StreamDiffusion: A Pipeline-Level Solution for Real-Time Interactive Generation

              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                GitHub - cumulo-autumn/StreamDiffusion: StreamDiffusion: A Pipeline-Level Solution for Real-Time Interactive Generation
              • Video generation models as world simulators

                We explore large-scale training of generative models on video data. Specifically, we train text-conditional diffusion models jointly on videos and images of variable durations, resolutions and aspect ratios. We leverage a transformer architecture that operates on spacetime patches of video and image latent codes. Our largest model, Sora, is capable of generating a minute of high fidelity video. Ou

                  Video generation models as world simulators
                • GitHub - project-tsurugi/tsurugidb: Tsurugi - next generation RDB for the new era

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                    GitHub - project-tsurugi/tsurugidb: Tsurugi - next generation RDB for the new era
                  • Retrieval-Augmented Generationシステムの改善方法の紹介 - AITC - ISID | AI トランスフォーメンションセンター コラム

                    こんにちは、AI製品開発グループのファイサルです。 この記事では、Know Narrator Searchで使用されている文章参照手法、Retrieval-Augmented Generation(RAG)の精度向上方法について紹介します。 はじめに ChatGPTを始めとした大規模言語モデル(LLM)の登場により、AI業界、特に自然言語処理分野で多くの素晴らしい応用先が提案されるようになりました。 LLMは素晴らしい技術であることは間違いないですが、同時に幻覚(Hallucination)という問題を抱えています。 このHallucinationという問題は、LLMが事実と異なる情報をあたかも真実であるように回答するというもので、LLMの発表当初から指摘されていました。 この問題を解決するために、さまざまな手法が存在しますが、よく用いられるのが「Retrieval-Augmented G

                      Retrieval-Augmented Generationシステムの改善方法の紹介 - AITC - ISID | AI トランスフォーメンションセンター コラム
                    • Text generation web UI で Xwin-LM-13B-V0.1-GPTQ を試す。|さいぴ

                      この Xwin-LM-13B-V0.1 モデル、13B(130億パラメーター)でありながらAlpacaEval ベンチマークにおいてなんとGPT-4に僅差で勝利している。対ChatGPT戦に至っては圧勝である。 しかもこのモデル、GPTQで量子化したTheBloke/Xwin-LM-13B-V0.1-GPTQ であれば7.26 GBである。 ついに家庭用ゲーミングPCでGPT-4が動く時代が来たのだ。 今を未来と呼ばずしてなんと呼ぶ。 というわけで、ローカルの Text generation web UI で Xwin-LM-13B をロードして色々推論して遊んでみます。 2. WebUI での実行今回はmainブランチのモデルを使用しています。 4ビット、アクトオーダー、グループサイズ128g。 VRAM使用量は64Gよりさらに少ないが、精度は若干落ちる。 Model タブの Downl

                        Text generation web UI で Xwin-LM-13B-V0.1-GPTQ を試す。|さいぴ
                      • AnthropicAI Tool で Retrieval-Augmented Generation を実装してみた

                        LangChain なんか使わなくてもシュッと作れたので記事にしておく。 RAG とは 生成AIに検索能力をもたせるやつ。 要は検索機能をこちらで提供してやって、AIにそれを読ませる。 AnthropicAI Tool OpenAI でいう Function Calling JSONSchema で関数シグネチャを与えると、それを使うDSLを生成する。実際の関数は自分で実装して、AI が生成した引数(JSONSchema に従う)を渡す。 TypeScript の Mapped Types でツールの実装部分に型をつける簡単なラッパーを書いた。 RAG の CLI を作る Google検索をするAPIを実装 Google Custom Engine API を使った 本文要約をするAPIを実装 Mozilla の実装を使った 与えられた URL を fetch して、その本文部分を抽出する

                          AnthropicAI Tool で Retrieval-Augmented Generation を実装してみた
                        • Retrieval-Augmented Generation for Large Language Models: A Survey

                          Large Language Models (LLMs) demonstrate significant capabilities but face challenges such as hallucination, outdated knowledge, and non-transparent, untraceable reasoning processes. Retrieval-Augmented Generation (RAG) has emerged as a promising solution by incorporating knowledge from external databases. This enhances the accuracy and credibility of the models, particularly for knowledge-intensi

                          • Now and Next Generation of CSS Cascading Model | ドクセル

                            Now and Next Generation of CSS Cascading Model araya @arayaryoma FRONTEND CONFERENCE OKINAWA 2023 araya @arayaryoma - FRONTEND CONFERENCE OKINAWA 2023 自己紹介 araya / Ryoma Abe x.com/arayaryoma github.com/arayaryoma bsky.app/profile/araya.dev Web standardsやBrowser APIが好き 今日はCSSの新しめの仕様について 話します araya @arayaryoma - FRONTEND CONFERENCE OKINAWA 2023 2020年4月 日経入社 日経電子版のWeb開発

                              Now and Next Generation of CSS Cascading Model | ドクセル
                            • Our next-generation model: Gemini 1.5

                                Our next-generation model: Gemini 1.5
                              • Real World Type Puzzle and Code Generation

                                TSKaigi 2024 https://tskaigi.org/

                                  Real World Type Puzzle and Code Generation
                                • NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表

                                  2024年2月26日からスペインのバルセロナで開催されているテクノロジー見本市・MWC Barcelona 2024で、NVIDIAが「Ada Lovelace」アーキテクチャを採用したモバイルGPUである「RTX 500 Ada Generation」と「RTX 1000 Ada Generation」を発表しました。 NVIDIA RTX 500 and 1000 Professional Ada Generation Laptop GPUs Drive AI-Enhanced Workflows From Anywhere | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-ada-ai-workflows/ Nvidia talks up local AI with RTX 500, 1000 Ada launch • The Regis

                                    NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表
                                  • RAG(Retrieval Augmented Generation)を用いたPostgreSQLアシスタントAIの試作 - Qiita

                                    この記事はNTTコムウェア Advent Calendar 2023の4日目の記事です。 こんにちは、NTTコムウェアの平塚です。今月は2023冬 Chill Seasonで手に馴染むブキを探しているところです。 大規模言語モデルが持っていない最新情報や企業内情報を補うためのRAG(Retrieval Augmented Generation、検索拡張生成)というアーキテクチャーがあります。ごく簡単に説明すると、外部データベースを用意してそこで検索した結果を大規模言語モデルに説明させるというものです。以下はRAGのイメージ図です。 現在多くの企業さまがRAGの検証に取り組んでいるところかと思います。今回RAGを用いてPostgreSQLに詳しいアシスタントAIを試作したので、気づいたところをいくつ か共有いたします。 まとめ PostgreSQLアシスタントAIはある程度使えるものになりそ

                                      RAG(Retrieval Augmented Generation)を用いたPostgreSQLアシスタントAIの試作 - Qiita
                                    • 【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】

                                      概要 ローカルLLMで最近話題の「CodeLlama-34B-Instruct-GGUF」をtext-generation-webuiから動かし、「ローカルLLMでもファインチューニングなしでプロンプト指示できる」感覚を体験してみる。 メイン読者ターゲット ご家庭にGPUがある人(CPUでも良いが遅い) 最適化だったり正しい理解ができてるかは別として、とりあえず動かしたい人 導入から書くので、推論スピードだけ確認したい人は下まですっ飛ばしてください。 導入 text-generation-webuiの導入 以下からclone 自分はpyenv+venv派なので python -m venv .venv でactivate。 あとは基本的にinstallationに従えば良い。 数少ないポイントとして、使ってるGPUやOSによってtorchが変わること、昔のGPUだとbitsandbytes

                                        【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】
                                      • Stability AI launches SDXL 0.9: A Leap Forward in AI Image Generation — Stability AI

                                        Stability AI launches SDXL 0.9: A Leap Forward in AI Image Generation Today, Stability AI announces SDXL 0.9, the most advanced development in the Stable Diffusion text-to-image suite of models. Following the successful release of Stable Diffusion XL beta in April, SDXL 0.9 produces massively improved image and composition detail over its predecessor. The model can be accessed via ClipDrop today,

                                          Stability AI launches SDXL 0.9: A Leap Forward in AI Image Generation — Stability AI
                                        • text-generation-webui で Rinna・OpenCALM・RWKV を試す|npaka

                                          「text-generation-webui」で「Rinna」「OpenCALM」「RWKV」を試したので、まとめました。 ・Windows 11 1. text-generation-webui「text-generation-webui」は、大規模言語モデルを実行するためのWeb UIです。テキスト生成の「AUTOMATIC1111」になることを目標としています。 特徴は、次のとおりです。 ・3つのインターフェイスモード (default, notebook, chat) ・モデルバックエンド (transformers, llama.cpp, AutoGPTQ, GPTQ-for-LLaMa, ExLlama, RWKV, FlexGen) ・ドロップダウンメニューによるモデル切り替え ・LoRA (ロード・アンロード・学習) ・プロンプトテンプレート (Alpaca, Vicuna

                                            text-generation-webui で Rinna・OpenCALM・RWKV を試す|npaka
                                          • Bluesky and Mastodon users are having a fight that could shape the next generation of social media | TechCrunch

                                            Bluesky and Mastodon users are having a fight that could shape the next generation of social media People on Bluesky and Mastodon are fighting over how to bridge the two decentralized social networks, and whether there should even be a bridge at all. Behind the snarky GitHub comments, these coding conflicts aren’t frivolous — in fact, they could shape the future of the internet. Mastodon is the mo

                                              Bluesky and Mastodon users are having a fight that could shape the next generation of social media | TechCrunch
                                            • GitHub - pytorch-labs/gpt-fast: Simple and efficient pytorch-native transformer text generation in <1000 LOC of python.

                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                GitHub - pytorch-labs/gpt-fast: Simple and efficient pytorch-native transformer text generation in <1000 LOC of python.
                                              • Introducing Pigment CSS: the next generation of CSS-in-JS - MUI

                                                In the era of React Server Components and the Next.js App Router, component libraries like Material UI must make some paradigm-shifting changes to reap the potential performance gains by moving more of the work of rendering UIs from client to server. Trouble is, the "traditional" CSS-in-JS solutions we rely on aren't able to come along with us because the React context API only works on the client

                                                  Introducing Pigment CSS: the next generation of CSS-in-JS - MUI
                                                • Retrieval-Augmented Generation(RAG)とは? | IBM ソリューション ブログ

                                                  主要カテゴリー IBM Cloud Blog IBM Data and AI IBM Consulting IBM Partner Ecosystem IBM Sustainability Software Client Engineering IBM テクニカル・サポート 社員が語る「キャリアとIBM」 IBM Cloud Blog IBM Cloud News IBM クラウド・ビジョン IBM Cloud アップデート情報 IBM Cloud チュートリアル IBM Data and AI IBM Watson Blog アナリティクス Data Science and AI SPSS Modeler ヒモトク Db2 オートメーション IBM Consulting デジタル変革(DX) アプリの開発とモダナイゼーション 製品/サービス ソフトウェア ハードウェア サービス 無料評価

                                                    Retrieval-Augmented Generation(RAG)とは? | IBM ソリューション ブログ
                                                  • P/Invoke source generation - .NET

                                                    .NET 7 introduces a source generator for P/Invokes that recognizes the LibraryImportAttribute in C# code. When it's not using source generation, the built-in interop system in the .NET runtime generates an IL stub—a stream of IL instructions that is JIT-ed—at run time to facilitate the transition from managed to unmanaged. The following code shows defining and then calling a P/Invoke that uses thi

                                                      P/Invoke source generation - .NET
                                                    • Turborepo Code Generationによる、サイバーエージェントグループのフロントエンド開発の効率化

                                                      JS/TSのプロジェクトで、ビルドシステムやmonorepoの構築に用いられるTurborepoには、Code Generationという機能が存在します。 この機能を活用した、人為的ミスの防止や開発リソースの削減など、実際にサイバーエージェントグループの開発現場で行われている取り組みについてお話します。 イベントURL:https://uit.connpass.com/event/291443/

                                                        Turborepo Code Generationによる、サイバーエージェントグループのフロントエンド開発の効率化
                                                      • GitHub - vanna-ai/vanna: 🤖 Chat with your SQL database 📊. Accurate Text-to-SQL Generation via LLMs using RAG 🔄.

                                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                          GitHub - vanna-ai/vanna: 🤖 Chat with your SQL database 📊. Accurate Text-to-SQL Generation via LLMs using RAG 🔄.
                                                        • RubyKaigi 2024 - Vernier: A next generation profiler for CRuby (Day1) - Techouse Developers Blog

                                                          Vernier: A next generation profiler for CRuby こんにちは、2024年に新卒で入社し、ジョブハウスでバックエンドエンジニアをしているnozomemeinです。 本記事では、1日目のJohn Hawthornさんによるセッション、Vernier: A next generation profiler for CRuby について紹介させていただきます。 Vernierとは何か Vernierは、Rubyのパフォーマンスプロファイリングを行うためツールです。 従来のプロファイラーでは、GVL(Global VM Lock)の影響を受けやすく、正確なデータを得るのが難しいという課題がありました。 また、既存の有名なprofilerであるstackprofも認知度こそあれど、10年以上前に開発されたもので、 Rubyのアップデートに追従できているとはいえ

                                                            RubyKaigi 2024 - Vernier: A next generation profiler for CRuby (Day1) - Techouse Developers Blog
                                                          • Retrieval-Augmented Generation (RAG) とは? | NVIDIA

                                                            Retrieval-Augmented Generation は、外部ソースから取得した情報を用いて、生成 AI モデルの精度と信頼性を向上させるテクノロジです。 生成 AI の最新の進歩を理解するために、法廷を想像してみてください。 裁判官は、一般的な法律の理解に基づいて審理し、判決を下します。時には、医療ミス訴訟や労働争議など、特定の専門知識が必要なケースもあるため、裁判官は裁判所書記官を法務図書館に送り、引用できる判例や具体的な事例を探させます。 優れた裁判官のように、大規模言語モデル (LLM) は人間の様々なクエリに答えることができます。しかし、出典を引用した信頼できる回答を提供するためには、モデルにも調査を行うアシスタントが必要です。 AI の裁判所書記官は、Retrieval-Augmented Generation 、略して RAG と呼ばれるプロセスです。 名前の物語 こ

                                                              Retrieval-Augmented Generation (RAG) とは? | NVIDIA
                                                            • GitHub - explodinggradients/ragas: Evaluation framework for your Retrieval Augmented Generation (RAG) pipelines

                                                              🚀 Dedicated solutions to evaluate, monitor and improve performance of LLM & RAG application in production including custom models for production quality monitoring.Talk to founders Ragas is a framework that helps you evaluate your Retrieval Augmented Generation (RAG) pipelines. RAG denotes a class of LLM applications that use external data to augment the LLM’s context. There are existing tools an

                                                                GitHub - explodinggradients/ragas: Evaluation framework for your Retrieval Augmented Generation (RAG) pipelines
                                                              • RAG (Retrieval Augmented Generation) を活用!LLMで外部データを参照する方法を解説 | 株式会社ARISE analytics(アライズ アナリティクス)

                                                                Tweet RAG (Retrieval Augmented Generation) を活用!LLMで外部データを参照する方法を解説 はじめに はじめまして、DX Technology Unitの芹澤です。普段はAI関連技術を用いた研究開発に携わっています。 昨今、ChatGPTを初めとした大規模言語モデル (Large Language Model; 以下LLM) が話題になっており、様々な質問に対して非常に優れたアウトプットが得られるようになりました。一方、LLMを企業で使用する場合、社内特有のデータを参照する必要があるため、社内特化LLMシステムを構築することが必須となります。 弊社では、社内の業務効率化を目的とした生成AIの活用を促進する「生成AIプロジェクト」が立ち上がり、ChatGPTをはじめとしたLLMの検証作業を進めています。その中で生成AIが社内情報を参照できるようにする

                                                                  RAG (Retrieval Augmented Generation) を活用!LLMで外部データを参照する方法を解説 | 株式会社ARISE analytics(アライズ アナリティクス)
                                                                • AudioLDM: Text-to-Audio Generation with Latent Diffusion Models - Speech Research

                                                                  AudioLDM 2: Learning Holistic Audio Generation with Self-supervised Pretraining Haohe Liu 📮,1, Qiao Tian2,Yi Yuan1, Xubo Liu1, Xinhao Mei1,Qiuqiang Kong2 Yuping Wang2, Wenwu Wang1, Yuxuan Wang2, Mark D. Plumbley1 1CVSSP, University of Surrey, Guildford, UK 2Speech, Audio & Music Intelligence (SAMI), ByteDance 📮Corresponding author 😃 For text-to-audio generation, we generated a total of 350 audi

                                                                  • Retrieval Augmented Generation at scale — Building a distributed system for synchronizing and…

                                                                    Disclaimer: We will go into some technical and architectural details of how we do this at Neum AI — A data platform for embeddings management, optimization, and synchronization at large scale, essentially helping with large-scale RAG. As we’ve shared in other blogs in the past, getting a Retrieval Augmented Generation (RAG) application started is pretty straightforward. The problem comes when tryi

                                                                      Retrieval Augmented Generation at scale — Building a distributed system for synchronizing and…
                                                                    • GitHub - jhawthorn/vernier: 📏 next generation CRuby profiler

                                                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                        GitHub - jhawthorn/vernier: 📏 next generation CRuby profiler
                                                                      • Seven Failure Points When Engineering a Retrieval Augmented Generation System

                                                                        Software engineers are increasingly adding semantic search capabilities to applications using a strategy known as Retrieval Augmented Generation (RAG). A RAG system involves finding documents that semantically match a query and then passing the documents to a large language model (LLM) such as ChatGPT to extract the right answer using an LLM. RAG systems aim to: a) reduce the problem of hallucinat

                                                                        • Our next generation Meta Training and Inference Accelerator

                                                                          Our next-generation Meta Training and Inference Accelerator April 10, 2024 · 8 min read We’re sharing details about the next generation of the Meta Training and Inference Accelerator (MTIA), our family of custom-made chips designed for Meta’s AI workloads.This latest version shows significant performance improvements over MTIA v1 and helps power our ranking and recommendation ads models.MTIA is pa

                                                                            Our next generation Meta Training and Inference Accelerator
                                                                          • Terraform provider code generation now in tech preview

                                                                            TerraformInfrastructure as code provisioning​​​​‌‍​‍​‍‌‍‌​‍‌‍‍‌‌‍‌‌‍‍‌‌‍‍​‍​‍​‍‍​‍​‍‌‍‌​‌‍​‌‌‌​‌‍‌‍​‌‍‌‌​​‍‍‌‍​‌‍‌‍‌​‍​‍​‍​​‍​‍‌‍‍​‌​‍‌‍‌‌‌‍‌‍​‍​‍​‍‍​‍​‍‌‍‍​‌‌​‌‌​‌​​‌​​‍‍​‍​‍‌‍‍​‌‍​‌‌​‌‍‍​‌‍‍‌‌‍​‌‍‌​‍‌​​​‍‍‌‍​‌‌‍‌​‌‍‌‌‍‍‌‌‍‍​‍‍‌‍‌​‌‍​‌‌‌​‌‍‌‍​‌‍‌‌​​‍‍‌‍​‌‍‌‍‌​‍‌‍‌‌‌‍‌​‌‍‍‌‌‌​‌‍‌​‍​‍‌‍‍‌‌‌​‌‍‌‌‌‍‌‌‌‌‌​‌‍‌‌​​‌‍‌‌‌​​‍‌‌‍‌​‌‍

                                                                              Terraform provider code generation now in tech preview
                                                                            • NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表

                                                                              現地時間2024年2月12日、NVIDIAが小型ワークステーション向けGPUとして「NVIDIA RTX 2000 Ada Generation」を発表しました。NVIDIA RTX 2000 Ada Genrationはアーキテクチャに「Ada Lovelaceアーキテクチャ」を採用することで、前モデルの「NVIDIA RTX A2000」と比較して最大1.6倍ものパフォーマンスを発揮することが可能とされています。 NVIDIA RTX 2000 Ada Generation GPU Brings Performance, Versatility for Next Era of AI-Accelerated Design and Visualization | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-2000-ada/ nvidia.c

                                                                                NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表
                                                                              • RAG(Retrieval-Augmented Generation:検索拡張生成)とは?

                                                                                RAG(Retrieval-Augmented Generation:検索拡張生成)とは?:AI・機械学習の用語辞典 用語「RAG」について説明。ChatGPTなどのチャットAIに独自の情報源を付与する仕組みのことで、具体的には言語モデルによるテキスト生成に特定の情報源(ナレッジベース)の検索を組み合わせること。これには、生成内容の正確さを向上させるメリットがある。 連載目次 用語解説 生成系AI/LLM(大規模言語モデル)のRAG(Retrieval-Augmented Generation:検索拡張生成)とは、ChatGPTやGeminiに代表されるチャットAIに独自の情報源を付与する仕組みのことで、具体的には言語モデルによるテキスト生成に特定の知識や情報源(例えばナレッジベースなど)への検索を組み合わせることである。これにより、回答内容がより専門的かつ正確になるため、事実とは異なる内

                                                                                  RAG(Retrieval-Augmented Generation:検索拡張生成)とは?
                                                                                • StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation

                                                                                  StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation Yupeng Zhou1* Daquan Zhou2‡† Mingming Cheng1 Jiashi Feng2 Qibin Hou1‡†