マイクロソフトは、日本時間5月22日未明から開催中のイベント「Microsoft Build 2024」で、生成AIがさまざまな業務を支援してくれる「Microsoft Copilot」の新機能として「Team Copilot」を発表しました。 チームの生産性向上を実現するTeam Copilot Microsoft Copilotは、同社のオフィス製品などに組み込まれた生成AIによって文書やプレゼンテーションの作成などの支援を通じて個人の生産性向上を実現する機能として登場し……
最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAIの本命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIがAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し
ChatGPTをはじめとして生成AIのサービスが登場し、情報の検索方法が大きく変わろうとしています。この記事では、今までの検索の歴史を軽く振り返りながら、これからの検索がどのようになっていくかをまとめたいと思います。生成AIや検索システム、それらの社会やビジネスへの影響に興味のある方にとって、参考になれば幸いです。これからの検索はいろんな可能性がありとてもワクワクします。 ※あくまで一個人のまとめです。また、書いていたら思ったより長くなってしまったので、ご興味あるところを読んで貰えればと思います。 検索とはそもそも検索とはどういうものでしょうか。検索技術の教科書の定義をまとめると次のようになります。 情報検索(Information Retrieval)とは、大規模な集合(large collections)から情報ニーズ(information need)を満たす資料(material)
カナダのAIスタートアップCohereは4月4日(現地時間)、ビジネス向けに最適化された最新の大規模言語モデル(LLM)「Command R+」を発表した。 高度なRAG技術を採用 Cohereは、AI業界に変革をもたらしたTransformerモデルを提唱した論文「Attention is All You Need」の共同執筆者として知られるトロント大学の研究者Aidan Gomez氏らによって2019年に設立されたカナダのAIスタートアップ。 OpenAIと同様、LLMの開発に特化しており、企業向けにチャットボット、検索エンジンの最適化、要約サービス、自社AIモデルのAPIなどを提供している。 Command R+は、同社が3月に発表した「Command R」の後継となるモデルであり、Cohereが得意とする高い効率性と精度のバランスを重視したRシリーズの一部となる。 128K(12万
はじめに 新規事業部 生成AIチーム 山本です。 ChatGPT(OpenAI API)をはじめとしたAIの言語モデル(Large Language Model:以下、LLM)を使用して、チャットボットを構築するケースが増えています。通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができません。そのため、例えば社内システムに関するチャットボットを作成しようとしても、素のLLMでは質問に対してわからないという回答や異なる知識に基づいた回答が(当然ながら)得られてしまいます。 この問題を解決する方法として、Retrieval Augmented Generation(以下、RAG)という手法がよく使用されます。RAGでは、ユーザからの質問に回答するために必要そうな内容が書かれた文章を検索し、その文章をLLMへの入力(プロンプト)に付け加えて渡すことで、ユーザが欲しい
こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村( @nokomoro3 )です。 先日開催された DevelopersIO 2023 のチョークトークで登壇いたしました。 その際の資料と概要を共有いたします。 資料 登壇資料は以下となります。 概要のご紹介 以下の内容をご紹介しました。 OpenAI APIの話 APIの詳細な使い方 トークンとは何か Function callingの詳細 LangChainの概要 基本的なChain(LLMChain、SequentialChain) 応用的なChain(LLMRouterChain、SQLDatabaseChain、ConversationChain、RetrievalQA) Memoryの種類 Agentの種類 LlamaIndexの概要と仕組み LangChainとの違い、内部的な仕組み カス
7月7日、OpenAIがChatGPT Plusの公式プラグインとしてCode Interpreter(8月にAdvanced Data Analysisに名称変更)の提供を開始しました。 Code Interpreterを利用することにより、ChatGPT上でPythonコードを生成、実行したり、ファイルをアップロード・ダウンロードしたりすることができます。 以前、ChatGPTのデータ分析プラグインのNoteableで、簡単な算数の問題を解いたり、データ分析をしたりしましたが、Code Interpreterでも同じことができるのかどうか確かめてみました。 1.Code Interpreterの概要と使い方(1) Code Interpreterの概要Code Interpreterは、ChatGPTの機能を拡張する公式プラグインであり、以下のようなことができます。 Pythonコード
はじめに ABEJAでデータサイエンティストをしている服部です。 今回はLLMで外部データを使うケースについてのお話をしたいと思います。 はじめに LLMと外部データの利用 RetrievalとLLM 0. (事前準備)参照したいテキストデータをDBに格納 1. ユーザの入力文とのテキスト類似度を計算して、関連テキストを抽出する(Retrieval) 2. 関連テキストをLLMのプロンプトに入れ込み、ユーザの入力文に回答する。 Retrieval時の課題 LangChainでの用意 Case1: それぞれの文章がRetrievalしにくい形で保存されている 対策案: ページ構造を意識した形で各文章を格納する 他の対策案 聞き方を明確にする 類似度を測るクエリ文章を置き換える 不要そうな文章をデータから削除する データ自体をLLMで整形し直す Case2: 未知の単語を含む 仮説: ニャオハ
米Google(グーグル)のクラウド部門であるGoogle Cloudが、生成AI(人工知能)のクラウドサービスを充実させている。2023年5月10日(米国時間)に開催した年次イベント「Google I/O 2023」では、Google CloudのCEO(最高経営責任者)であるThomas Kurian(トーマス・クリアン)氏が3種類の生成AI関連サービスを発表した。 クリアンCEOはGoogle I/Oの基調講演で「我々はAIのパワーを使って、ユーザーの働き方を変革する」と主張。生成AIがシステム開発者の生産性を大きく向上させるものであると指摘した。 クリアンCEOがGoogle I/O 2023で発表したGoogle Cloudの生成AI関連サービスは、(1)機械学習プラットフォームである「Vertex AI」に追加した3種類の基盤モデル、(2)生成AIがクラウド上のシステム開発を支
OpenFlamingoは、大規模なマルチモーダルモデル(LMM)のトレーニングと評価を可能にするフレームワークで、今回のリリースではFlamingoスタイルのLMMをトレーニングするためのPythonフレームワークと、画像とテキストが交互に並ぶ大規模なマルチモーダルデータセット、視覚言語タスクのコンテキスト内学習評価ベンチマークを備えており、LLaMAに基づくOpenFlamingo-9Bモデルの最初のバージョンとなっている。 OpenFlamingoの実装は、おもにFlamingoの実装に従っており、Flamingoモデルはテキストと画像が混在する大規模なWebコーパスでトレーニングされる。元のFlamingo論文で提案されていたものと同じアーキテクチャ(Perceiver resampler、cross-attention layer)を実装しているが、Flamingoのトレーニング
AI企業のCerebrasが、オープンソースでパラメータ数1億1100万~130億の大規模言語モデル「Cerebras-GPT」7種類を公開しました。Cerebras-GPTは、OpenAIのGPT-3をベースに、DeepMindが2022年3月にリリースしたChinchilla方式で学習したモデルで、これまでに公開されているどのモデルよりも学習時間が短く、学習コストが低く、消費電力が少ないのが特徴とのことです。 Cerebras-GPT: A Family of Open, Compute-efficient, Large Language Models - Cerebras https://www.cerebras.net/blog/cerebras-gpt-a-family-of-open-compute-efficient-large-language-models/ cerebr
rinna社、日本語に特化した言語画像モデルCLIPを公開商用利用可能な Apache-2.0 ライセンスで公開することで日本語の言語・画像コミュニティに還元 rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン“クリフ”チェン、以下rinna社)は、日本語に特化した言語(テキスト)と画像の関係を表現できる事前学習言語画像モデルCLIP(Contrastive Language-Image Pre-training)とその改良版モデルCLOOBを学習し、商用利用可能な Apache-2.0 ライセンスで公開したことを発表します。 本モデルを公開することにより、日本語における言語・画像理解に関する研究の活発化に繋がることを期待しています。今後の研究成果は引き続き公開し、研究・開発コミュニティへ還元していきます。 ■概要 rinna社はこれまでに、日本語の自然言語処理 (NLP) に特化
高精度な文章を生成するAI「GPT-3」や、文章から画像を生成するAI「DALL・E」などを開発している非営利団体のOpenAIが、新たに開発している画像認識AI「CLIP」の思考の特徴を解説しています。 Multimodal Neurons in Artificial Neural Networks https://openai.com/blog/multimodal-neurons/ 人間には、「女優のハル・ベリーの顔写真を見ても、ハル・ベリーのイラストを見ても、『ハル・ベリー』という文字列を見ても反応するニューロン」のように、異なる種類の情報に対して一様に反応するニューロンが存在することが知られています。OpenAIによると、CLIPは人間と同じようにさまざまな形態の情報を同じものとして扱うことができます。 人間の顔を「人間の顔」として認識する従来の画像認識モデルは、人間の顔のイラス
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く