並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 112件

新着順 人気順

LLM&GPTの検索結果1 - 40 件 / 112件

  • ChatGPT - LLMシステム開発大全

    ChatGPTとLLMシステム開発について纏めた187ページ資料です。 2024/04 名称を改め資料を大幅にアップデートしました! 今後も随時更新していきます。 データサイエンティスト協会での発表動画はこちら。 https://youtu.be/l9fpxtz22JU Build Japanでの発表はこちら。 https://youtu.be/UEZzx6a005g?si=Ot8EO2bv8yhQQEcy 2023/7/28 体裁修正、余計なページを削除 2023/12/12 RAG、API仕様、モデルのページを追加。また情報を最新化。 2024/04 名称を改め資料を大幅にアップデートしました! 1. LLM - GPTの全体像 LLM - GPT とは何なのか ~チャットAIを例にした動作イメージ~ 大規模言語モデル(LLM)が持つ基礎能力 デジタルツールとLLMの連携 GPTに関す

      ChatGPT - LLMシステム開発大全
    • LLMのプロンプト技術まとめ - Qiita

      現在,34個掲載(一部執筆途中) よかったらData Science wikiのGPTsも見て下さい! はじめに 今回はすぐに使えそうなプロンプトの工夫やフレームワークについて有名なものをまとめました.LMの出力の精度向上に役立てられればと思います. 論文があるものについてはarXivに最初に投稿された順番で掲載しています. 論文で精度向上が確認されているのは英語での検証がほとんどであるため,日本語で改善されるかは分かりません. 全てのLLM(GPT-4,Llama2,...)で精度が改善するとは限りません. ※記事に誤り等ありましたらご指摘いただけますと幸いです. 以下の記事では敵対的プロンプト技術をまとめています! 目次 Zero-shot prompting Few-shot prompting 2021年〜 Generated Knowledge Prompting 2022年〜

        LLMのプロンプト技術まとめ - Qiita
      • LLMを理解する一歩として「ゼロから作るDeep Learning」をやった - $shibayu36->blog;

        LLM、GPT界隈を追いかけていて、GPTの仕組みと限界についての考察(2.1) - conceptualizationという記事を見かけた。これを見たとき、「どういうことか全然理解できない」という気持ちになった。また、その他LLMの解説記事を理解できないことが多く、自分の機械学習知識不足が明確になった。 理解できなかったことは悔しいし、LLMやChatGPTをうまく使いこなすには最低限どのような原理で動いているか理解したいと感じた。そこで一歩目として「ゼロから作るDeep Learning」を完走した。 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 作者:斎藤 康毅オライリージャパンAmazon 知識なしからはじめたので時間はかかったが、次のように進めていった。 自分もコードを写経しながら読む レポジトリは https://github.co

          LLMを理解する一歩として「ゼロから作るDeep Learning」をやった - $shibayu36->blog;
        • GPT-4登場以降に出てきたChatGPT/LLMに関する論文や技術の振り返り - Platinum Data Blog by BrainPad

          本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 このたびブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。 この記事では、GPT-4の登場から執筆日(2023年5月31日時点)までの2ヶ月間で登場した論文を振り返りながら、まとめて紹介していきます。 LLM/ChatGPTの動向 オープンソースLLM モデル オープンソースLLMの調整 Adapter、LoRA Instruction Tuning Human Feedback プロンプトエンジニアリング プロンプトエンジニアリングの課題①:プロンプトに大量の情報を入れられない プロンプトエンジニアリングの課題②:複雑なタス

            GPT-4登場以降に出てきたChatGPT/LLMに関する論文や技術の振り返り - Platinum Data Blog by BrainPad
          • 文章一行でAIがWebサイト構築、外部資金調達なしで5.4万ユーザを集めた豪Relume——NikeやDapper Labsも利用 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

            Image credit: Relume ワンセンテンスの Web デザインは、もはや夢物語ではない。Wix、Weebly、Webflow のテンプレートを使えば、自分のスタイルで Web サイトを組み立てることができる。 しかし、これはレイアウトに限ったことではなく、Web サイトの構成を考え、各ページの内容も、訪問者を惹きつけるために慎重に設計する必要がある。例えば、「About」ページでは、サービス紹介やビジネスストーリー、将来のビジョンなどを掲載するため、コンテンツの設計に手間がかかる。 この問題を解決するために、デザインスタートアップ Relume は、AI が生成する Web サイトデザインプラットフォーム「Relume Ipsum」を開発した。これにより、数週間から1ヶ月程度かかっていた Web サイトを完成させるまでの作業負荷をわずか数分にまで軽減することができる。このプロ

              文章一行でAIがWebサイト構築、外部資金調達なしで5.4万ユーザを集めた豪Relume——NikeやDapper Labsも利用 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
            • ラズパイで動く大規模言語モデルがGitHubで公開 性能は“GPT-3相当”、Metaの「LLaMA」派生

              LLaMAは米Metaが独自開発した大規模言語モデル。LLM分野の研究推進を支援するため、研究者向けに2月にリリースした。大規模インフラを利用できない研究者のために小規模ながら性能の高いことが特徴で、7B(=70億)、13B、33B、65Bの4種類のパラメーターを用意している。13Bモデルはベンチマークで米OpenAIのLLM「GPT-3」を上回るという。 米スタンフォード大学は、LLaMAの7Bモデルを派生させ独自のLLM「Stanford Alpaca」を開発。このモデルは研究や学術目的でのみ利用でき、娯楽や商用での利用は禁止している。Alpaca LoRAでは、Stanford Alpacaが生成するトークン(単語列)を再現できるという。 関連記事 Meta、独自大規模言語モデル(LLM)の「LLaMA」を限定リリース Metaは独自の大規模言語モデル「LLaMA」(Large La

                ラズパイで動く大規模言語モデルがGitHubで公開 性能は“GPT-3相当”、Metaの「LLaMA」派生
              • グーグル「Bard」ついに日本公開 「ChatGPT」対抗のAIチャット

                グーグルが開発するAIチャット「Bard」。2月6日に発表され、3月21日より米国と英国のみで公開されていたが、4月18日午後(日本時間)あたりから、日本でもベータテストに参加できるようになった。 さっそく使ってみる 「Bard」は大規模言語モデル(LLM)「GPT-4」を使用したOpenAIの「ChatGPT」同様、Googleが開発するLLM「LaMDA(Language Model for Dialogue Applications)」の「軽量で最適化されたバージョン」を利用している。 ベータテストに参加するには、サイトの右下に表示されている「Join Waitlist」ボタンをクリックし、ニュースメールの購読にチェックを入れるだけでよい。

                  グーグル「Bard」ついに日本公開 「ChatGPT」対抗のAIチャット
                • Google、“現行最強”の生成AI発表 月2900円で利用可 チャットAIサービスはBard→Geminiに刷新

                  米Googleは2月8日(現地時間)、「現行最強」をうたう生成AI「Gemini Advanced」を発表した。すでにサービスの提供を開始しており、月額2900円で利用可能。2カ月間の無料試用期間も用意する。 同社は従来、生成AIの頭脳部分となるLLM(大規模言語モデル)として「Gemini」ブランドを利用し、サービス名は「Bard」として提供していたが、サービス名も今回Geminiに統一。NanoやProなど、すでに発表している3つのLLMのうち、パラメータ数が最大で複雑なタスクをこなせるとしていた「Gemini Ultra」を使ったサービスはこれまで登場していなかった。今回、UltraからAdvancedにリネームしての正式ローンチとなる。 Gemini Advancedは数学、物理学、歴史、法律、医学、倫理を含む57科目の組み合わせを使用するベンチマークテストで人間の専門家を上回る成

                    Google、“現行最強”の生成AI発表 月2900円で利用可 チャットAIサービスはBard→Geminiに刷新
                  • 個人向け「Windows Copilot」が12月1日にやってくる 生成AIはPCの使い方をどう変えるのか?

                    日本マイクロソフトが、生成AIを活用したアシスタントツール「Copilot」の個人向け正式版を12月1日にリリースする。現在のプレビュー版に引き続き、Webブラウザやアプリからアクセスして利用できるだけでなく、Windows 11に一機能として組み込まれる。これまでのPCの使い方に大きな変化を及ぼす、生成AIの新機能に触れる人口が大きく増えそうだ。では、具体的にどのような機能が使えるのか。 GPT-4ベースのCopilot Copilotは、人間と会話するような自然な言葉で物事を調べたり、コンテンツを創作したり、アプリの操作を指示したりできる米Microsoftの独自技術だが、ベースとなっているのは「ChatGPT」で一世を風靡(ふうび)した米OpenAIの大規模言語モデル(LLM)「GPT-4」だ。 2社の協業によって、GPT-4に検索エンジン「Bing」のアルゴリズムを統合したものがC

                      個人向け「Windows Copilot」が12月1日にやってくる 生成AIはPCの使い方をどう変えるのか?
                    • 初心者が言語モデルを勉強するための本(2023年6月版) - ぱたへね

                      流行のLLMを勉強したくて沢山本を読みました。 この後もしばらくLLM(GPT)関係の出版が続きそうなので、現状の本でまとめてみました。 参考: nowokay.hatenablog.com まとめ。 Transformerの仕組みを知りたい人で、画像のDeep Learningなら分かるって人はVision Transformer入門 言語モデルをデータセットを作る所からやってみたい人には、作ってわかる! 自然言語処理AI とにかくすぐに動かしたい人には、機械学習エンジニアのためのTransformers ビジネス的に何ができるのかを知りたい人はBERT入門 Vision Transformer入門 Vison Transformerになっていますが、Transformerの説明がとても詳しくお勧めです。実際に写経してパーツパーツで動かせるのはこの本だけ。Transformer一点突破な

                        初心者が言語モデルを勉強するための本(2023年6月版) - ぱたへね
                      • 社内用語集を気軽に質問できるSlackBotを作ってみた (RAGの応用アプリ) - ABEJA Tech Blog

                        こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井(GitHub : @Yagami360)です。 LangChain を使用すれば、RAG [Retrieval Augment Generation] を使用した LLM アプリケーションを簡単に作成できるので便利ですよね。 今回 LangChain での RAG を使用して、LLM が学習に使用していない特定ドメインでの用語を応答する Slack ボットをさくっと作ってみたので共有します。 本コード一式は、以下の GitHub レポジトリに保管しています。 github.com 使い方 コード解説 アーキテクチャ RAG の仕組み ヒューマンインザループによる継続的品質改善 まとめ We Are Hiring! 使い方 事前準備として{用語集スプレッドシートの作成・Slack アプリの初期設定・各種

                          社内用語集を気軽に質問できるSlackBotを作ってみた (RAGの応用アプリ) - ABEJA Tech Blog
                        • なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由”

                          米OpenAIの大規模言語モデル(LLM)・GPT-4は今、世界を大きく塗り替え続けている技術の一つだ。世界各国の企業がこぞってLLMの開発を進めている。特にGAFAなどの巨大企業は、その膨大な資源を使ってすでにいくつものLLMを世に放っている。 そんな中、日本では理化学研究所と富士通、東京工業大学、東北大学が、スーパーコンピュータ「富岳」を使ったLLMの研究を今まさに進めている。学習手法の研究からデータの法的な扱いまで幅広く検討し、日本のLLM開発の基盤を作るのが目的だ。 深層学習といえば、今ではGPUを使うのが一般的になっている。しかし富岳はそのGPUを搭載していない。日本にはGPU搭載スパコンも存在するのに、なぜ富岳を使ってLLMを研究するのか。 今回は富士通研究所・コンピューティング研究所の中島耕太所長と白幡晃一さんに、富岳を使ったLLM研究について、その意義を聞いた。富岳は確かに

                            なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由”
                          • Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog

                            2.3k{icon} {views} 複数のLLM(GPT/Claude3)とArxivの検索APIをRAGで統合し、論文サーベイの自動生成を作りました。検索結果の前処理や、サーベイ特有のプロンプトエンジニアリングやソートが重要で、最適化手法として古くからある巡回セールスマン問題(TSP)が有効に機能しました。また、生成部分ではGPTよりClaude3の明確な有効性を確認できました。 できたもの Arxivの検索APIを使って検索拡張生成(RAG)したらサーベイを自動生成できた やっていること Arxivの検索ワードをGPT-4-Turboで生成 ArxivのAPIを叩いてヒューリスティックでフィルタリング OpenAIのEmbedding APIを叩く Embeddingに対して巡回セールスマン問題(TSP)を解いてソートをかける 論文の要旨をGPT-3.5-Turboで要約 ソートした

                              Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog
                            • GPT-4で「親鸞ボット」「菩薩ボット」開発 京大「仏教対話AIの多様化に成功」

                              京都大学とベンチャー企業のテラバースムは9月12日、仏教の経典を学習させ、ユーザーの悩みに答えるチャットボット「親鸞ボット」「世親ボット」を開発したと発表した。米OpneAIのLLM「GPT-4」を活用。従来からの「ブッダボット」とあわせ、「仏教対話AIの多様化に成功した」としている。 浄土真宗の開祖・親鸞(12~13世紀)の聖典「正信偈」と、大乗仏教の「唯識」を大成し、アジア各地で教えを広めた菩薩の世親(4世紀)の聖典「倶舎論」をそれぞれ学習させたチャットボット。 AR技術を活用し、現実を映した背景に親鸞や世親の仏像画像を重ねるなどして視覚・聴覚を用いたコミュニケーションも可能にした。 研究チームはこれまで、仏陀の聖典を学習させた「ブッダボット」を2種類開発。1つめはGoogleの「Sentence BERT」を応用し、Q&A形式で機械学習させてそのままの形で回答を生成するもの。2つめは

                                GPT-4で「親鸞ボット」「菩薩ボット」開発 京大「仏教対話AIの多様化に成功」
                              • Microsoftの中の人、「新しいBing」のAIモデル「プロメテウス」を解説

                                米MicrosoftがOpenAIのLLM「ChatGPT」採用の「新しいBing」を公開して2週間以上が経過した。Microsoftで検索とAI担当のCVP(コーポレートバイスプレジデント)を務めるジョルディ・リバス氏が2月22日(現地時間)、Microsoft傘下のLinkedInに「Building the New Bing」というブログを投稿し、新しいBingについて解説した。 新しいBingでは、OpenAIが昨夏に共有した「GPT-3.5よりはるかに強力な、ChatGPTを強化するLLM」(「GPT-4」とはしていない)を採用している。この次世代GPTは強力ではあるが、他のLLMと同様にトレーニングデータが古い(GPT-3.5のトレーニングデータは2021年までのもの)ため、Bingのバックエンド機能と組み合わせることで最新データを利用できるように開発したのがAI技術「Prom

                                  Microsoftの中の人、「新しいBing」のAIモデル「プロメテウス」を解説
                                • OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために

                                  会話型AIサービス「ChatGPT」を手掛ける米OpenAIのサム・アルトマンCEOは2月24日(現地時間)、AGI(Artificial General Intelligence;汎用人工知能)実現への短期および長期のロードマップを発表し、人類改善のためのリスク軽減策について説明した。アルトマン氏はAGIを「一般的に人間より賢いAIシステム」と定義する。 同氏は、人間の知性を超えた存在を成功させることは人類史上最重要事項であり、希望に満ちてはいるが、恐ろしいプロジェクトだと語った。 AGIには誤用、劇的な事故、社会的混乱などの深刻なリスクが伴うが、それでも利点が非常に大きいとしている。いずれにしてもAGIの開発を停止することはもはや不可能であるため、「社会と開発者は正しく開発する方法を見つけ出さなければならない」とアルトマン氏。 同氏は短期計画として以下の3つを挙げた。 AIモデルの現実

                                    OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために
                                  • 陰謀論者 vs. 生成AI──大規模言語モデルは陰謀論を説得できるか? 米MITなどが2000人以上で検証

                                    陰謀論は一度信じ始めると、反証によって覆すのが非常に難しい信念だと考えられている。しかし、この研究では従来の陰謀論に対する反証の試みが失敗してきたのは、単に各陰謀論者に合わせた説得力のある反証が不足していたためではないかという可能性を検討した。陰謀論者は自分の関心のある陰謀について非常に詳しいことが多く、反論する側が議論で劣勢に立たされるのである。 この課題に対処するため、この研究ではLLM(GPT-4 Turbo)を活用した。実験では、計2190人の陰謀論者がLLMと3ラウンドの対話を行った。参加者は自分が信じる陰謀論を詳細に説明し、AIにはそれぞれの陰謀論の信念を低下させるよう指示した。 その結果、参加者の陰謀論信念が21.43%低下した。さらに、参加者の27.4%が対話後に陰謀論を確信しなくなった。この効果は2カ月後も持続し、非常に広範な陰謀論で一貫して見られ、陰謀論信念が深く根付い

                                      陰謀論者 vs. 生成AI──大規模言語モデルは陰謀論を説得できるか? 米MITなどが2000人以上で検証
                                    • Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog

                                      こんにちは! 画像システムグループで機械学習エンジニアをやっている小島です。 この記事では、今ホットな「Zero-shot Learning」と「Vision & Language」に関する最新情報を、CLIPという研究を起点として網羅的にサーベイをしていきます。このために論文1000本に目を通し、70本程度を記事にしました。 Zero-shotやVision & Languageは、Stable Diffusionに代表される画像生成AIとも密接に関連している技術です。この記事を通して、Vision & Languageの奥深い世界を体感できるでしょう。 注意事項 この記事は非常に長いため、全部読むのに1時間以上かかる可能性があるので、休憩を取りながら、または必要な部分だけ読んでください。各セクションを個別に読んでも問題ありません。 また、文章中の画像は、特別な記載がない限り、引用元の論

                                        Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog
                                      • GPT-4、Bard、Claude2などの異なるLLMが円卓を囲み議論した結果の回答は品質が高いとの検証報告。円卓ツールも公開 | AIDB

                                        異種LLM同士の議論 米ノースカロライナ大学の研究者らは、異なる種類の大規模言語モデル(LLM)同士に議論させるというアプローチを採りました。 このアイデアの背後には、異なるモデルがそれぞれの強みと弱みを持っているという認識があります。例えば、GPT-4は一般的なテキスト生成に優れている一方で、Bardは物語生成に特化しています。これらのモデルを組み合わせることで、より高度な推論が可能になると考えられています。 研究者らは、複数の異なるLLM(GPT-4、Bard、Claude2など)を円卓会議のような形で議論させるアイデアを形にしました。各モデルは独自の視点と推論能力を持ち寄り、最終的な回答や結論を出す過程が検証されました。 異種LLMs円卓会議ツール 研究者らはただ実験を行って報告するだけでなく、LLM同士に議論させて答えを提出させるプロセスを自動化するツールも提供しています。このツー

                                          GPT-4、Bard、Claude2などの異なるLLMが円卓を囲み議論した結果の回答は品質が高いとの検証報告。円卓ツールも公開 | AIDB
                                        • 脳の予測とクリエイティブ能力の関係。予測的符号化理論、ストーリー、音楽、ゲーム、そして観察力

                                          今回は、以前のツイートの内容をちょっと掘り下げて書いてみる。 これマジでそう。音楽が基本的に繰り返しで構成されてるのは、脳にフレーズを学習させて次を予測させるためなのよね。予測が当たると脳は歓喜する。でもずっと同じ事を繰り返してると脳は飽きる。だからAメロからBメロ→サビって展開していく。展開が変わると予測が外れて脳は驚いて食い付く。音楽は新… — うみゆき@AI研究 (@umiyuki_ai) April 10, 2023 佐渡島さんが書いた「観察力の鍛え方」を読み始めた。佐渡島さんが言うにはいいクリエイターの条件とは、観察力を持ってる事らしい。で、観察力とは何か?というと、現時点での結論は「いい観察は、ある主体が、物事に対して仮説をもちながら、客観的に物事を観て、仮説とその物事の状態のズレに気づき… — うみゆき@AI研究 (@umiyuki_ai) April 17, 2023 あら

                                            脳の予測とクリエイティブ能力の関係。予測的符号化理論、ストーリー、音楽、ゲーム、そして観察力
                                          • Meta、マルチモーダルAI「ImageBind」をオープンソース化

                                            米Metaは5月9日(現地時間)、マルチモーダルな情報をバインドするAIモデル「ImageBind」をオープンソース化したと発表した。 「マルチモーダル」は複数の「モダリティ」の処理が可能であることを示す。モダリティは、データの種類。ImageBindは、テキスト、画像および動画、音声、深度(3D)、熱(赤外線)、慣性測定単位(IMU)という6種類のモダリティの情報を単一の表現空間で学習する。 例えば、トラの写真を解析し、その吠え方、体温、動きなどの総合的な情報を生成したり、にぎやかな市場の音に基づいて市場の画像を生成したりできるという。 ImageBindは、モダリティの組み合わせごとのデータのトレーニングが不要で、複数のモダリティにわたって結合埋め込み空間を作成できる。 例えば、研究用に交通量の多い都市の道路からの音声データと熱データを1つのデータセットにすることも可能だ。 3Dセンサ

                                              Meta、マルチモーダルAI「ImageBind」をオープンソース化
                                            • GPT-4が脅威分析し「パワポ1枚」で報告、マイクロソフトがSecurity Copilot公開

                                              米Microsoft(マイクロソフト)は2023年3月28日(米国時間)に開催した自社イベント「Microsoft Secure」で、米OpenAI(オープンAI)の大規模言語モデル(LLM)「GPT-4」を活用したセキュリティー分析ツール「Microsoft Security Copilot」を発表した。現在はプレビュー版を公開する。このツールで何ができるのか、マイクロソフトが示した実例に基づき解説しよう。 Security Copilotは、セキュリティー担当者が社内外で発生したセキュリティーインシデントなどについて自然言語で質問をすると、GPT-4ベースのAI(人工知能)がセキュリティーログなどのデータを分析して、攻撃の実態や対処方法などをテキストや図、PowerPointのスライドなどで返答するツールである。 Security Copilotは、マイクロソフトのSIEM(セキュリテ

                                                GPT-4が脅威分析し「パワポ1枚」で報告、マイクロソフトがSecurity Copilot公開
                                              • 「ChatGPT」の精度を劣化させる「ドリフト」現象--米研究チームが検証

                                                この現象はいささか不可解に感じられる。なぜなら、生成人工知能(AI)モデルはユーザーからの入力を利用して自らを訓練し続けるため、時間とともにより多くの入力が蓄積されるほど賢くなるはずだからだ。 その謎の答えは、「ドリフト」と呼ばれる概念にあるかもしれない。 「ドリフト」とは、大規模言語モデル(LLM)が予期しない、あるいは予測不可能な振る舞いをし、元のパラメーターから逸脱してしまうことだ。こうした現象は、複雑なAIモデルの一部を改善しようとした結果、他の部分の性能が低下することで発生する可能性がある。 カリフォルニア大学バークレー校とスタンフォード大学の研究チームが、ドリフト現象を検証するための研究で、広く用いられているLLM「GPT-3.5」(ChatGPTの基盤)と「GPT-4」(新しい「Bing」と「ChatGPT Plus」の基盤)の経時的変化を調査した。 この研究では、両LLMの

                                                  「ChatGPT」の精度を劣化させる「ドリフト」現象--米研究チームが検証
                                                • 新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)

                                                  OpenAIは5月13日(現地時間)、「Spring Update」と題したをオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」お披露目のほか、mac OS用デスクトップアプリや各種無料化施策なども発表した。 テキスト理解力は過去最高 GPT-4oは、これまでのフラッグシップモデル「GPT-4 Turbo」と同等の性能を持ちながら、より高速化され、テキスト、音声、画像の理解力も大幅に向上したという触れ込みの最新LLMだ。 ちなみにGPT-4oの「o」は、「すべての」「全てを含む」という意味を持つラテン語の接頭辞「omni(オムニ)」から来ている。 以前から得意な英語とプログラムコードに関してはGPT-4 Turboと同等の性能を発揮し、英語以外の言語のテキストでは大幅な改善がみられるという。 ベンチマーク(OpenAIが提供するsimple-eva

                                                    新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)
                                                  • 楽天とOpenAI、協業へ 三木谷氏「国全体の効率を20%上げる」

                                                    楽天グループの三木谷浩史代表は8月2日、同日から開催している同社のリアルカンファレンス「Rakuten Optimism 2023」において、チャットAI「ChatGPT」やLLM「GPT-4」などを手掛ける、米OpenAIと協業すると発表した。 楽天モバイルを含む、楽天のさまざまなサービスでOpenAIの生成AIをプラグインの形で接続し、楽天で事業を手掛ける企業の業務効率化、ユーザーエクスペリエンス(UX)の改善を図る。また楽天社内でも、マーケティングやオペレーション効率を20%引き上げるという。「中小企業、大企業、国、地方公共団体のエンパワーメントを20%アップさせる。国全体の効率を20%上げる」(三木谷氏)。 イベントのキーノートには、OpenAIのサム・アルトマンCEOもオンラインで登壇。両社の協業について「私たちがこの業界で一緒にできることは多くあると思う。楽天と一緒にやっていく

                                                      楽天とOpenAI、協業へ 三木谷氏「国全体の効率を20%上げる」
                                                    • 「GPT-4はもう電化製品」、ユーザー5億人「Duolingo」は語学学習をどう変える

                                                      世界で約5億人が使う人気語学アプリを展開する米Duolingo(デュオリンゴ)は、米OpenAI(オープンAI)の大規模言語モデル(LLM)「GPT-4」を採用した語学学習サービス「Duolingo Max」を2023年3月に開始した。GPT-4の導入を前提にオープンAIと提携したのは2022年9月。チャットボットAI(人工知能)であるChatGPTの公開よりも前だ。いち早く生成AIに注目したデュオリンゴは、語学学習をどう変えようとしているのか。 語学アプリ「Duolingo」は、基本機能を利用できる無料版と、パーソナライズ機能などを追加で利用できる有料プラン「Super Duolingo」の2種類のプランを持つ。Duolingo MaxはSuper Duolingoの上位版という位置付けで、価格は米国では月額29.99ドル、年額167.99ドル。当面は米国やカナダ、オーストラリアなど一部

                                                        「GPT-4はもう電化製品」、ユーザー5億人「Duolingo」は語学学習をどう変える
                                                      • Microsoft Security Copilot──GPT-4採用のサイバーセキュリティ分析ツール誕生

                                                        米Microsoftは3月28日(現地時間)、米OpenAIの大規模言語モデル(LLM)「GPT-4」採用のセキュリティ分析ツール「Microsoft Security Copilot」を発表した。Azure上で稼働し、組織のセキュリティ担当者が侵害を特定し、防御するのを助けるAIサービスだ。まだプレビュー段階で、一般提供は開始されていない。 GPT-4をMicrosoftのセキュリティ固有のモデルと組み合わせた「単なるLLMではなく学習するシステム」。Microsoftのモデルにはセキュリティ固有のスキルセットが組み込まれており、独自の脅威インテリジェンスとMicrosoftが毎日受け取っている65兆以上の脅威シグナルで情報が提供されているという。 セキュリティ担当者がプロンプトから自然言語で、例えば「最近のランサムウェア攻撃の傾向は?」と尋ねると、関連するデータやレポートを提示する。さ

                                                          Microsoft Security Copilot──GPT-4採用のサイバーセキュリティ分析ツール誕生
                                                        • 「OpenAI Japan」爆誕 日本でも人材採用

                                                          米OpenAIは4月15日、東京都にアジア初の拠点「OpenAI Japan」を設立したと発表した。社長は元アマゾン ウェブ サービス ジャパン社長の長崎忠雄氏。「長崎は、セールスと事業開発をリードし、渉外、製品およびサービスに関する計画、コミュニケーション、オペレーションなどを担うチームを構築する」(OpenAI)という。日本での求人を進める旨も明らかにした。 日本拠点設立に合わせ、大規模言語モデル(LLM)「GPT-4」の日本語版も発表。ITmedia NEWSでは、OpenAIが東京で実施している、日本拠点の設立発表会を取材中。追ってその様子も報じる。 関連記事 GPT-4に日本語特化モデル OpenAI Japan始動会見で発表 米OpenAIは4月15日、大規模言語モデル「GPT-4」について、日本語に最適化したカスタムモデルを発表した。 「名前を変えろ」──イーロン・マスク氏、

                                                            「OpenAI Japan」爆誕 日本でも人材採用
                                                          • 1万種類を超える大規模言語モデル(LLM)をまとめてダウンロード数や類似性などを分かりやすく視覚化したデータライブラリが公開される

                                                            2022年後半から「ChatGPT」や「Bard」など数え切れないほどの大規模言語モデル(LLM)およびAIサービスが登場し、世界中のユーザーが生成AIを積極的に使い始めるようになりました。こうした大規模言語モデルの多くは機械学習モデルとデータセットのリポジトリであるHugging Faceに寄託されていますが、スタンフォード大学の研究者らがHugging Faceのデータをまとめて視覚化したものを新たに公開しました。 [2307.09793] On the Origin of LLMs: An Evolutionary Tree and Graph for 15,821 Large Language Models https://doi.org/10.48550/arXiv.2307.09793 Constellation https://constellation.sites.stan

                                                              1万種類を超える大規模言語モデル(LLM)をまとめてダウンロード数や類似性などを分かりやすく視覚化したデータライブラリが公開される
                                                            • 1つのGPU/CPUで推論可能な超軽量LLM「tsuzumi」を24年3月から提供へ

                                                              NTTは2023年11月、同社が独自開発した大規模言語モデル(LLM)「tsuzumi」を2024年3月から提供開始すると発表した。 tsuzumiのコンセプトについて、NTT 執行役員 研究企画部門長の木下真吾氏は「専門知識を持った、パラメーターサイズの小さなLLMの実現だ。tsuzumiは、パラメーターサイズを抑えつつ、言語学習データの質と量を向上させることで、軽量化と専門性を両立した」と語った。 専門知識を持った軽量LLM「tsuzumi」 tsuzumiは、パラメーターサイズが6億または70億と軽量でありながら、「世界トップクラス」(同社)の日本語処理性能を持つLLMだ。軽量なため、1つのGPUやCPUで推論動作が可能で、学習やチューニングに必要な時間やコストを軽減できるという。日本語/英語に対応する他、表が含まれる誓約書や契約書といった図表文書の視覚読解など、さまざまな形式にも対

                                                                1つのGPU/CPUで推論可能な超軽量LLM「tsuzumi」を24年3月から提供へ
                                                              • 「Microsoft Copilot」のiOSアプリも登場 「GPT-4」と「DALL・E 3」をサポート

                                                                米Microsoftは12月29日(現地時間)、米Appleの公式iOSアプリストアApp StoreでAIチャットアプリ「Microsoft Copilot」を公開した。Android版は19日にリリース済みだ。 Android版と同様、2月に公開した「Bing」アプリと併存している。両者の違いは、Bingアプリは米OpenAIのLLM「GPT-4」のみをサポートしており、Microsoft CopilotはOpenAIの「DALL・E 3」もサポートしているので画像の生成も可能という点だ。 ちなみに、OpenAIもAIチャット「ChatGPT」のモバイルアプリを公開している。こちらも無料だが、サブスクリプションしていないとサポートするのは「GPT-3.5」だ。 本稿執筆現在、ChatGPTはApp Storeでの「仕事効率化」ランキングで3位。Microsoft Copilotは公開か

                                                                  「Microsoft Copilot」のiOSアプリも登場 「GPT-4」と「DALL・E 3」をサポート
                                                                • GPT, Langchain, Faiss, FastAPIを組み合わせた Chat検索システム開発

                                                                  『LLM(GPT, PaLM等) with MLOps LT大会!!!』登壇資料。 https://mlops.connpass.com/event/279156/

                                                                    GPT, Langchain, Faiss, FastAPIを組み合わせた Chat検索システム開発
                                                                  • 機械に話しかけて設定できる時代が来る? なぜ“小規模”なLLMが求められるのか

                                                                    小規模LLMの利点 LLMにおいて、学習パラメータ数は性能に直結する。パラメータ数を上げれば性能が向上するというのは「最近においては研究者の間でのコンセンサス」(企業向けのAIソリューション開発を行うLaboro.AIの藤原弘将COO兼CTO)だ。 一方で、注目を集めつつあるのがLLaMAのような小規模なモデルだ。 LLaMAはパラメータ数の異なる4つのサイズ(7B、13B、33B、65B)で提供されている。これは175B規模のGPT-3や、それを遥かに上回るといわれるGPT-4に比べると非常に小さいが、13BサイズでもGPT-3よりも性能が上だという。 モデルを大規模化すれば性能が上がることが分かっていても、小規模でも高性能なモデルの開発が注目されている理由の1つは、ビッグテックによるLLM独占への警戒感だ。大規模モデルの学習は規模が大きくなるほど必要な演算量も増える。「例えばAWSを使

                                                                      機械に話しかけて設定できる時代が来る? なぜ“小規模”なLLMが求められるのか
                                                                    • Meta、手書きキャラをアニメ化するAIツール「Animated Drawings」をオープンソースで公開

                                                                      米MetaのAI部門Meta AIのFAIRチームは、4月13日(現地時間)、手書きの絵をアニメーションに変換するAIツール「Animated Drawings」をオープンソースで公開した。クリエイターや開発者が、描画からアニメーション体験や製品を簡単に作成できるようにすることを目指す。 これは、FAIR が2021年に開発し、Web版をリリースした「Animated Drawings Demo」が基になっている。このデモは、コンピュータビジョンモデルを訓練するために必要な大量の描画とアノテーションを集める目的で公開したものだ。 Animated Drawings Demoは好評で、公開後数カ月で160万件以上の画像がアップロードされた。これらの画像は使用許可付きのものだ。そこで、FAIRはAnimated Drawings Demoで使用されているモデルとコードのオープンソース版をリリー

                                                                        Meta、手書きキャラをアニメ化するAIツール「Animated Drawings」をオープンソースで公開
                                                                      • 楽天×OpenAIの新AIプラットフォーム「Rakuten AI for Business」始動 2024年以降に提供へ

                                                                        楽天グループは11月14日、米OpenAIと協業し、新AIプラットフォーム「Rakuten AI for Business」を提供すると発表した。AIを使ってさまざまな企業活動を支援する。2024年以降に提供を始める予定。 同プラットフォームでは、営業やマーケティング、カスタマーサポート、オペレーション、戦略策定、システム開発などの企業活動をサポート。具体的な機能として、データ分析やチャート作成などの分析業務ができる「Rakuten AI Analyst」や、消費者へのサービス提供を手助けする「Rakuten AI Agent」、企業の資料を分析して顧客からの質問に回答できる「Rakuten AI Librarian」などを提供する。 楽天は同プラットフォームについて「スマートフォンやタブレットなどのあらゆる端末から、いつでもどこからでもアクセスできる、利便性の高いインタフェースを提供する

                                                                          楽天×OpenAIの新AIプラットフォーム「Rakuten AI for Business」始動 2024年以降に提供へ
                                                                        • LangChain Toolsの運用と改善

                                                                          2023/4/25 LLM(GPT, PaLM等) with MLOps LT大会!!! 発表資料

                                                                            LangChain Toolsの運用と改善
                                                                          • 「医療」に特化したオープンソースの大規模言語モデル「Meditron」が登場

                                                                            Metaの大規模言語モデル(LLM)である「Llama 2」をベースに医学書でトレーニングした、医療専門のLLMスイート「Meditron」が登場しました。登場直後であるため正規採用はまだ推奨されていないものの、医療分野に関する能力がGPT-3.5を上回っていることが報告されています。 [2311.16079] MEDITRON-70B: Scaling Medical Pretraining for Large Language Models https://arxiv.org/abs/2311.16079 GitHub - epfLLM/meditron: Meditron is a suite of open-source medical Large Language Models (LLMs). https://github.com/epfLLM/meditron 大規模言語モデル

                                                                              「医療」に特化したオープンソースの大規模言語モデル「Meditron」が登場
                                                                            • OpenAI、LLMの新バージョンや値下げを発表 関数呼び出し可能に

                                                                              米OpenAIは6月13日(現地時間)、LLM(大規模言語モデル)のAPIの更新と一部の値下げを発表した。 gpt-3.5-turboとGPT-4がそれぞれアップデートされ、「gpt-3.5-turbo-0613」と「gpt-4-0613」になった。 新モデルでは、関数呼び出し機能が利用できる。これらのモデルには、関数を呼び出すための引数を含むJSONオブジェクトの出力を選択させることができる。GPTの機能を外部ツールやAPIと接続するための新しい方法だ。 プロンプトから関数を呼び出す必要があると検出すると、関数の署名に準拠したJSONで応答する。 これにより、開発者は例えば、ChatGPTプラグインなどの外部ツールを呼び出して質問に答えるチャットbotを構築したり、自然言語をAPI呼び出しやデータクエリに変換したりすることが可能になる。 また、各モデルにコンテキストウィンドウ(プロンプト

                                                                                OpenAI、LLMの新バージョンや値下げを発表 関数呼び出し可能に
                                                                              • LLMアプリケーションの新定番、Microsoft guidanceライブラリのgenメソッドを詳細に追ってみる|mah_lab / 西見 公宏

                                                                                MicrosoftのguidanceライブラリはLLMアプリケーションを作成する際の新たな定番となりそうな気がしています。そういう訳で、今回はguidanceのgenメソッドについて詳しく追ってみたいと思います。 基本的な使い方import guidance gpt3 = guidance.llms.OpenAI("text-davinci-003") gpt3_5 = guidance.llms.OpenAI("gpt-3.5-turbo") gpt4 = guidance.llms.OpenAI("gpt-4", api_key=API_KEY) guidance.llm = gpt3まずはguidanceライブラリを読み込み、使用するLLMを宣言します。OpenAI APIを使用する場合、初期化パラメータとして以下のパラメータを使用できます。 model 使用するモデルの名前を指定し

                                                                                  LLMアプリケーションの新定番、Microsoft guidanceライブラリのgenメソッドを詳細に追ってみる|mah_lab / 西見 公宏
                                                                                • BERT系モデルで文章をEmbeddingする際のTips - Qiita

                                                                                  概要 BERT系のモデルを活用した文章のEmbedding取得について、検証を含めていくつかTipsを紹介します。 Paddingの最適化 tokenの平均化 Embeddingを取得するLayer 上記Tipsを複合した文章Embedding取得classの実装 はじめに 近年は、ChatGPTを始めとしたLLM活用が話題となっています(言語処理と言えば初手LLM(GPT系)の雰囲気も一部感じております)。対話型ChatBotにおいてはGPT系の生成AIが一線を画していますが、文章のEmbedding取得では旧来のBERT系のモデルが優れている例も報告されています。 SGPT: GPT Sentence Embeddings for Semantic Search ChatGPT vs BERT:どちらが日本語をより理解できるのか? 今回、社内で簡単な情報検索システムを構築する機会があり

                                                                                    BERT系モデルで文章をEmbeddingする際のTips - Qiita