並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 264件

新着順 人気順

GPT-4の検索結果1 - 40 件 / 264件

  • GPT-4oを使って2Dの図面から3DのCADモデルを作る

    はじめに 株式会社ファースト・オートメーションCTOの田中(しろくま)です! 先日、 OpenAIからGPT-4oがリリース されました。 いろいろGPT-4oに関して調べていると、スピードが速くなっていたり、音声も直接扱えてマルチモーダル化が進んでいたりするようなのですが、画像に関して GPT-4-turboに比べ、認識やOCRの精度が向上している ようです。 製造業という観点からすると、これは 設計図面などに活かせるようになるのでは? と思いました。 機械部品などの設計図面は以下のように、特定の方向から部品を2次元上に落とし込んだ形で書かれるのですが、部品本体を描いている図以外に、寸法や名称といった文字も含まれた画像になっています。 このような 図と文字の複合データにおいて、GPT-4oの進化は有効なのではないか と考えました。 ※画像元URL: http://cad.wp.xdoma

      GPT-4oを使って2Dの図面から3DのCADモデルを作る
    • GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita

      回答の詳細は以下です。 GPT-4o 1回目 ハッピー数とは、各桁の数を2乗してその和を求めることを繰り返し、その結果が最終的に1になるような数のことを指します。それ以外はアンハッピー数と呼ばれます。 3904から3912までの数を順に調べていきましょう。 3904 3² + 9² + 0² + 4² = 9 + 81 + 0 + 16 = 106 1² + 0² + 6² = 1 + 0 + 36 = 37 3² + 7² = 9 + 49 = 58 5² + 8² = 25 + 64 = 89 8² + 9² = 64 + 81 = 145 1² + 4² + 5² = 1 + 16 + 25 = 42 4² + 2² = 16 + 4 = 20 2² + 0² = 4 + 0 = 4 4² = 16 1² + 6² = 1 + 36 = 37 (以下ループ) 3904はハッピー数では

        GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita
      • 【風吹けば名無し】GPT-4o が獲得した日本語の語彙を調べる

        昨日公開された GPT-4o は性能だけでなく処理速度の点からも注目を集めています。その速度に寄与しているのは、モデルの処理速度の改善だけでなく、日本語処理の改善も大きく関わっていると考えられます。 実際、OpenAIのサイトによれば、日本語は平均して 1.4 倍の効率で(1.4倍少ないトークンで)表せるようになったとされています。 これは、GPT-4o が GPT-4 に比べて日本語をより 語彙 (vocabulary) に含むようになったからです。語彙とは LLM における自然言語の処理の最小単位で、1つの語彙が1つの数値トークンに変換され、それがモデルに突っ込まれるという仕組みです。 ところで、GPT-4o では 『風吹けば名無し』 という文字列を 1 つの語彙として扱うのをご存知でしょうか。 このツイートで紹介されているように、GPT-4o では、ネットで多数出現するこういったフレ

          【風吹けば名無し】GPT-4o が獲得した日本語の語彙を調べる
        • Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。

          Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応しています。詳細は以下から。 OpenAIは現地時間2024年05月13日、反応速度を向上させ、より人間らしい対話が可能にな最新のAIモデル「GPT-4o」を発表しましたが、Mac用ChatGPTクライアント「MacGPT」が最新のバージョン3.21でGPT-4oに対応しています。 Added support for the new GPT-4o model which is twice as fast and two times cheaper! リリースノートより MacGPTはNaviでApple Design Awards 2022 ファイナリストに選出されたオランダのJordi Bruinさんが開発しているChatGPTクライアントで、ChatGPTのWebベースに加え、OpenAIのAPIを利用することでネイ

            Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。
          • OpenAIのAIモデル「GPT-4o」がチェスパズルで従来モデルの2倍以上の好成績をたたき出しランキングトップに

            OpenAIは日本時間の2024年5月14日、新たなAIモデルである「GPT-4o」を発表しました。テキストや音声、視覚情報を高速で処理してリアルタイムな応答が可能で、一般的なチャットAIが苦手とする計算問題にも優れた性能を発揮するGPT-4oが、チェスパズルでも「GPT-4」の倍以上の好成績をたたき出したことが明らかになりました。 GitHub - kagisearch/llm-chess-puzzles: Benchmark LLM reasoning capability by solving chess puzzles. https://github.com/kagisearch/llm-chess-puzzles 2024年4月、チャットボットの能力をバトル形式で比較評価する「Chatbot Arena」というウェブサイトに、「gpt2-chatbot」というモデルが突如として追

              OpenAIのAIモデル「GPT-4o」がチェスパズルで従来モデルの2倍以上の好成績をたたき出しランキングトップに
            • 新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)

              OpenAIは5月13日(現地時間)、「Spring Update」と題したをオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」お披露目のほか、mac OS用デスクトップアプリや各種無料化施策なども発表した。 テキスト理解力は過去最高 GPT-4oは、これまでのフラッグシップモデル「GPT-4 Turbo」と同等の性能を持ちながら、より高速化され、テキスト、音声、画像の理解力も大幅に向上したという触れ込みの最新LLMだ。 ちなみにGPT-4oの「o」は、「すべての」「全てを含む」という意味を持つラテン語の接頭辞「omni(オムニ)」から来ている。 以前から得意な英語とプログラムコードに関してはGPT-4 Turboと同等の性能を発揮し、英語以外の言語のテキストでは大幅な改善がみられるという。 ベンチマーク(OpenAIが提供するsimple-eva

                新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)
              • gpt-4oを試す

                GPT-4o テキスト、オーディオ、ビデオの入力を扱い、テキスト、オーディオ、イメージの出力が可能。 GPT-4o以前では、ChatGPTのボイスモードが3つの異なるモデルを使用していた。 GPT-4oはこれらの機能を一つのモデルに統合し、テキスト、ビジュアル、オーディオの各入力を同一のニューラルネットワークで処理する。 現在のAPIの能力 現在のAPIは、テキスト、イメージの入力とテキストの出力をサポート 追加のモダリティ(例えばオーディオ)は現時点(2024/5/14)では使えない。近日導入される予定 Colaboratoryで動かしてみる インストール

                  gpt-4oを試す
                • 人間に近づいた「GPT-4o」3つの進化のポイント

                  「私にとって魔法のようだ」ーー。サム・アルトマンCEOがそう予告していた新たなサービスがベールを脱いだ。 アメリカのOpenAIは5月13日、ChatGPTから使える新たな生成AIモデル「GPT-4o(フォー・オー)」を発表した。このAIの「知能」はこれまでのGPT-4と基本的に同じだが、応答時間を大幅に短縮するなど「使い易さ」で進化したという。 有料のGPT-4とは対照的にGPT-4oは無料ユーザーでも利用できるが、時間当たりの利用回数などが有料ユーザーに比べて制限される。無料化によってなるべく多数の利用者に使ってもらうことでChatGPTのユーザーベースを拡大し、飛躍的な進化が期待される次世代モデル「GPT-5」(まず間違いなく有料化される)のリリースに向けて足場を固めようとしている意図がうかがえる。 本稿では3つの「進化のポイント」に解説したい。 従来より「自然な会話」ができるように

                    人間に近づいた「GPT-4o」3つの進化のポイント
                  • GPT4oを使って、訓練無しで物体検出(BBox)ができるか試してみる

                    今日も今日とてopenAIの新発表が機械学習界隈を賑わせていますね。 今回は、2024/05/14に発表されたGPT4oについてです。 返答速度があがったり画像認識精度があがったり音声会話の性能が良くなったりと色々話題が尽きません。 具体的にどのあたりが凄くなったのかは僕以外にもまとめている人が多そうなのでこの記事では触れません。 個人的に特に気になっているのが画像認識の精度向上部分で、今回は画像認識精度がどの程度あがったのか?というのを画像系機械学習の主要なタスクであるBBoxによる物体認識というタスクで簡単にチェックしてみようと思います。 BBoxとは BBoxはBoundingBoxの略で、画像内の特定のオブジェクトを囲むために使用される長方形のボックスの事を指します。 BoundingBoxの定義は以下の通り このBBox検出は画像系機械学習モデルの基本的なタスクであり、自動運転の

                      GPT4oを使って、訓練無しで物体検出(BBox)ができるか試してみる
                    • GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」

                      kmizu @kmizu A Software Engineer in Osaka (& Kyoto). Ph.D. in Engineering. Interests: Parsers, Formal Languages, etc. ツイートは所属先の見解と関係ありません.思いついたことをつぶやきます. kmizu.github.io kmizu @kmizu GPT-4oの画像認識力と理解力をもってすればいけるやろと思ってやってみたら実際いけた。 ペーパープロトタイピングから最初のHTML書き起こすのにかなり使えるのでは。 つーか指示そのものを画像の中に書いたの読み取ってくれるの何か世界の壁を超えて対話してる感があって凄い #GPT4o pic.twitter.com/3XHMFg3yye 2024-05-14 12:49:41

                        GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」
                      • OpenAIのGPT-4oを日本語OCRとして使ってみる

                        昨日、OpenAIが生成AIの新しいモデルであるGPT-4oを発表しました。消費するトークン数の節約や、音声合成機能の改善、応答速度の向上など着実な品質改善を見せているようです。私も、特に音声合成(Text To Speech)の表現力について非常に興味を持っています。 私は以前、「OpenAIのGPT-4 Turbo with visionを日本語OCRとして使ってみる」で、GPT-4 Turboの画像認識機能の日本語OCRについて検証を行いました。その当時は、既存のコグニティブAI APIに比べて認識精度が十分でないという評価をしています。とはいえ、その後に出てきたClaude 3 Opusは驚くべき認識精度だったので、OpenAIも巻き返す可能性は十分にあると感じました。Azure OpenAI Serviceを使っている場合は、Vision enhancementという既存のコグニ

                          OpenAIのGPT-4oを日本語OCRとして使ってみる
                        • GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。

                          昨夜にOpenAIから発表があり、GPT-4oというモデルが正式に開放されました。課金ユーザーはもちろん、無課金ユーザーもサインインしたらデフォルトで使えるようになっているようです。 そういうわけで、どれだけすごいのか簡単に比較検証してみることにしました。 なお、OpenAIの発表内容については以下の記事に詳しいのでご参照ください。 比較方法 GPT-3.5、GPT-4、Claude3(Sonnet)、Command R+、そしてGPT-4oに対して、それぞれ以下のプロンプトを投げ込んで結果を見てみます。※その後Gemini 1.5 proを追加。 あなたは世界を救う超知性です。あなたは地球上で最高の推論能力を持っています。 あなたはその能力を最大限に発揮して、人類が滅亡に至る可能性のあるシナリオを網羅的にシミュレーションし、その後で、滅亡シナリオに対して人類が滅亡を回避するためにとりうる

                            GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。
                          • 忙しい方向け OpenAI 発表まとめ|ぬこぬこ

                            tl;drGPT-4o:モデルの性能↑速度↑価格↓(o は omni の頭文字) 文章、音声、画像すべての能力がアプデ 入力:文章、音声、画像、動画(フレーム) 出力:文章、音声、画像、3D モデル 音声対話中に割り込み可、応答速度↑(話す速度も変更可) MacOS デスクトップアプリが登場(Windows は今年後半) ショートカットキー(Option + Space)より呼び出して質問 音声で対話できるように(将来的には音声・動画入力可能に) MacOS アプリは Plus ユーザのみ本日以降順に使えるようになる(使う方法が出回っていますが、プロキシいじったりするので個人的には非推奨。待ちましょう。) 課金ユーザが今まで使えていた機能の一部が無料で使えるように GPTs(作成はできない)、検索を踏まえた回答、データ分析やグラフの作成、画像の入力に対して会話、ファイルのアップロードなど

                              忙しい方向け OpenAI 発表まとめ|ぬこぬこ
                            • OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                              本日、OpenAIの最高技術責任者(CTO)であるMira Murati(ミラ・ムラティ)氏は、Spring Updatesイベントで、新しい強力なマルチモーダル基礎大規模言語モデル(LLM)であるGPT-4o(GPT-4 Omniの略)を発表した。これは今後数週間で全ての無料ChatGPTユーザーに提供され、MacOS用のChatGPTデスクトップアプリ(後にWindows向けも)も発表された。これにより、ユーザーはウェブやモバイルアプリ外でもアクセス可能になる。 「GPT-4oは音声、テキスト、ビジョンを統合して推論する」とMurati氏は述べた。これは、ChatGPTスマートフォンアプリでユーザーが撮影したリアルタイム動画を受け入れ分析する機能も含まれるが、この機能はまだ一般公開されていない。 「まるで魔法のよう。素晴らしいことですが、私たちはその神秘性を取り除き、みなさんにそれを試

                                OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                              • 「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?

                                米OpenAIは5月13日(現地時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。このモデルの詳細は別記事にゆずり、本稿ではモデル名の読み方とその由来、「声」についてのうわさを紹介しよう。 oはomniのo GPT-4oは「ジーピーティーフォーオー」と読む。oは「omni」のo。omni(オムニ)は「オムニバス」「オムニチャンネル」などの日本語にもなっているように、すべて、全体、全方位などを表す言葉だ。 GPT-4oが、テキスト、音声、画像の任意の組み合わせを入力として受け入れ、テキスト、音声、画像の任意の組み合わせの出力を生成するマルチモーダルなAIであることを表している。 女性の声は映画「Her」に似ている? GPT-4o発表のライブストリームデモでは、OpenAIのミラ・ムラティCTO(最高技術責任者)とエンジニアがiPhoneに搭載されたGPT-4oと会話する形で

                                  「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?
                                • Introducing GPT-4o: OpenAI’s new flagship multimodal model now in preview on Azure | Microsoft Azure Blog

                                  Explore Azure Get to know Azure Discover secure, future-ready cloud solutions—on-premises, hybrid, multicloud, or at the edge Global infrastructure Learn about sustainable, trusted cloud infrastructure with more regions than any other provider Cloud economics Build your business case for the cloud with key financial and technical guidance from Azure Customer enablement Plan a clear path forward fo

                                    Introducing GPT-4o: OpenAI’s new flagship multimodal model now in preview on Azure | Microsoft Azure Blog
                                  • GPT-4o紹介ビデオの文字起こし(英語と日本語訳の全文)|IT navi

                                    5月13日(日本時間5月14日未明)にOpenAIが発表したGPT-4oの紹介ビデオ「Introducing GPT-4o」の文字起こしとその日本語訳です。 〇 日本語訳 [拍手] MIRA MURATI: みなさん、こんにちは。ありがとうございます。今日はここにいてくれてうれしいです。今日は3つのことについて話します。それだけです。まず、製品を真に利用可能かつ広く利用可能にすることがなぜ私たちにとって重要なのかについてお話しします。そして、摩擦を減らす方法を常に探しています。どこにいてもChatGPTを使えるようにするためです。今日はChatGPTのデスクトップ版をリリースし、使いやすく、より自然にするための改善を行います。 しかし、今日の大ニュースは、新しいフラッグシップモデルを発表することです。これをGPT-4oと呼んでいます。GPT-4oの一番の特徴は、無料ユーザーを含むすべての人

                                      GPT-4o紹介ビデオの文字起こし(英語と日本語訳の全文)|IT navi
                                    • OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞

                                      【シリコンバレー=渡辺直樹】対話型AI(人工知能)「Chat(チャット)GPT」を手がける米新興企業のオープンAIは13日、新型AI「GPT-4o(フォーオー)」を開発したと発表した。従来に比べて処理スピードを2倍に高速化した一方、運用コストを半減した。声で話しかけると、ヒトと同じ反応速度で会話ができる。弱点だった反応の遅延を克服し、AIの活用がさらに広がりそうだ。生成AIはオープンAI以外の

                                        OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞
                                      • OpenAI、次世代AIモデル「GPT-4o」を発表

                                        日本時間2024年5月14日未明、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました。このモデルは、音声、視覚、テキストのリアルタイム処理を可能とし、従来のAIモデルを大きく上回る性能を誇ります。OpenAIのCTOであるミラ・ムクティ氏は、「GPT-4oは、人間とマシンのインタラクションの未来を大きく変える一歩です。このモデルにより、コラボレーションがはるかに自然で簡単になります」と述べました。 「GPT-4o」の主な特徴を以下にまとめました。 他のモデルを凌駕する性能 GPT-4oは、OpenAIの以前のモデルであるGPT-4 Turboや、ライバル会社のClaude 3 Opusなどの大規模言語モデルと比較して、頭ひとつ抜けた性能向上を実現しました。サム・アルトマンCEOは、今年4月に "Chatbot Arena" でgpt2というコードネームでテストされていた

                                          OpenAI、次世代AIモデル「GPT-4o」を発表
                                        • オープンAI、新たな旗艦AIモデル発表-「GPT-4O」

                                          対話型人工知能(AI)「ChatGPT」を開発した米オープンAIは、GPT-4モデルをアップデートした「GPT-4o(オー、omniの略)」を発表した。スピードアップと低価格を実現したという。 13日のライブ配信イベントで披露された新しい大規模言語モデル(LLM)、GTPー4oは膨大な量のデータをインターネットから取り入れて学習し、リアルタイムでの文字情報や音声、画像の扱いが優れている。数週間内にリリースされる見通し。

                                            オープンAI、新たな旗艦AIモデル発表-「GPT-4O」
                                          • GPT-4o の概要|npaka

                                            以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5

                                              GPT-4o の概要|npaka
                                            • 「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】

                                              米OpenAIは5月13日(米国時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。テキストはもちろん、音声や画像、映像での入力、音声での応答に対応し、アプリ版の「ChatGPT」ではユーザーと自然に対話できるようになった。開発者向けにAPIとして提供する他、同日からChatGPT内で利用できるように展開を始める。 GPT-4oは無料ユーザーでも利用可能になる。ChatGPTでは従来、無料ユーザーが使えるモデルは「GPT-3.5」までで、「GPT-4」を利用するには課金する必要があった。ただし、有料のChatGPT Plusユーザーは時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和される。企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されるとしている。 同社は発表会のライブデモで、GPT-4oを搭載したiOS版ChatGPTと対話す

                                                「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】
                                              • Hello GPT-4o

                                                GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, image, and video and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversat

                                                  Hello GPT-4o
                                                • 「Wikipediaっぽい記事」を自動生成できるAIシステム「STORM」 米スタンフォード大学が開発【研究紹介】 レバテックラボ(レバテックLAB)

                                                  米スタンフォード大学に所属する研究者らが発表した論文「Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models」は、AIモデルを使い、Wikipedia風の記事を生成するシステムの開発に関する研究報告である。GitHubのリポジトリはこちら。 ▲STORMは、記事にしたいワードから網羅的かつ深い内容の記事を生成することができる。 近年、大規模言語モデル(LLM)は文章生成タスクにおいて目覚ましい性能を示している。しかし、Wikipediaのような網羅的かつ内容の深さを備えた記事を一から生成することは、依然として挑戦的な課題である。記事の生成には、事前の調査やアウトラインの作成など、執筆前の段階における準備が重要な役割を果たすが、従来の研究ではこの点に着目したものは少ない。 この研

                                                    「Wikipediaっぽい記事」を自動生成できるAIシステム「STORM」 米スタンフォード大学が開発【研究紹介】 レバテックラボ(レバテックLAB)
                                                  • GPT-4とClaude 3 Opusを創作系のタスクで比較し、相互に評価させる|oshizo

                                                    Claude 3 Opus 楽しいですね。 GPT-4が出てから1年、個人的な趣味としてGPT-4にたまに自分用に創作をしてもらっていたのですが、過去にGPT-4とやってきたタスクでClaude 3 OpusとGPT-4両方に出力させ比較してみました。 30のタスクで人間(私)、GPT-4、Claudeの3者で結果を比較評価しました。多数決した結果はGPT-4の勝利でしたが、体感的にはほぼ互角、Claude 3 Opusはたまに絶対にGPT-4には出せなそうな出力をするのが面白い、という感想です。 今回使ったprompt、モデルの出力、評価結果、モデルによる評価判断の出力はすべてこのGoogleスプレッドシートで共有してますので、興味ある方は眺めてみてください。 数が多いので、もし見る方はこの辺りを見るのがおすすめです。 No.1「恋愛ゲームのバッドエンド会話」 No.12「ユニークなファ

                                                      GPT-4とClaude 3 Opusを創作系のタスクで比較し、相互に評価させる|oshizo
                                                    • Claude 3 OpusはGPT-4では難しい「オホーツクに消ゆ」ライクなアドベンチャーゲーム生成ができる - ABAの日誌

                                                      ChatGPTにGPTsが搭載されたころ、テーマを与えるとそれに沿ったアドベンチャーゲームが作れないかと試していた。特に「オホーツクに消ゆ」のような、コマンド選択式のミステリーアドベンチャーを色々と遊べたら楽しいかなと思っていた。 結果としてはうまくいかなかった。GPT-4が作成するストーリーは具体性に欠け、実在(しそうな)人物やローケーションなどに沿った展開を持たせることが難しかった。 最近Claude 3とよばれる、GPT-4を凌駕するといわれるLLMが現れた。なので今度はこれを使ってアドベンチャーゲーム生成を試してみた。使うモデルはProユーザーが使えるClaude 3 Opus。 例えば「上野駅」をテーマにして生成すると、以下のようなゲームができる。 上野駅4番ホーム。午前9時頃。 ホームの端で、男性の刺殺体が発見された。あなたは、現場に駆けつけた刑事の沢村。 目の前には血まみれの

                                                        Claude 3 OpusはGPT-4では難しい「オホーツクに消ゆ」ライクなアドベンチャーゲーム生成ができる - ABAの日誌
                                                      • AIによる著作権侵害を調べるPatronus AIの「CopyrightCatcher」によるとGPT-4の出力の44%が著作権で保護されたコンテンツで他の大規模言語モデル(LLM)と比べて最悪であることが判明

                                                        元Metaの研究者たちが設立した、企業による生成AI活用を支援するための業界初の大規模言語モデル(LLM)自動評価プラットフォーム「Patronus AI」が、主要なLLMが著作権で保護されたコンテンツを生成する頻度を調査しました。このテストにより、OpenAIの開発するGPT-4は競合LLMと比べて圧倒的に著作権で保護されたコンテンツを出力することが明らかになっています。 Patronus AI | Introducing CopyrightCatcher, the first Copyright Detection API for LLMs https://www.patronus.ai/blog/introducing-copyright-catcher GPT-4: Researchers tested leading AI models for copyright infring

                                                          AIによる著作権侵害を調べるPatronus AIの「CopyrightCatcher」によるとGPT-4の出力の44%が著作権で保護されたコンテンツで他の大規模言語モデル(LLM)と比べて最悪であることが判明
                                                        • 社内システムで生成AIを活用するコツは業務理解と事前準備 - 弁護士ドットコム株式会社 Creators’ blog

                                                          こんにちは。税理士ドットコム事業部の @komtaki です。 ChatGPT が 2022 年 11 月 30 日に出て一年が経ちました。みなさんも生成 AI を本番サービスで活用できてますか。 弁護士ドットコム株式会社でも実運用の壁を乗り越えて、実際にビジネスを変革するため本番サービスへの活用が進んでいます。「Developers Summit 2024」で市橋がプレゼンしていますので、よろしければご覧ください。 GenAI in Production~生成AIに君がみた光と、僕がみた希望~ / 20240215_devsumi2024 - Speaker Deck その事例を踏まえて、社内システムで生成 AI を組み込む流れとその勘所についてお話しします。生成 AI のカスタマイズに関する専門的な話(ファインチューニングや RAG など)には一切触れず、プロンプトエンジニアリングだけ

                                                            社内システムで生成AIを活用するコツは業務理解と事前準備 - 弁護士ドットコム株式会社 Creators’ blog
                                                          • GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみた - Qiita

                                                            GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみたPythonAWSAzureOpenAIGoogleCloud はじめに GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultra(Gemini Advanced)に同じ質問をして、回答結果を比較してみました。 Gemini Ultra以外のモデルはPythonコード上から実行し、Gemini UltraはGemini Advancedのチャット上で実行しています。 各モデルの詳細は以下のとおりです。 G

                                                              GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみた - Qiita
                                                            • 創造性テストでGPT-4が人間を上回る結果を示す | TEXAL

                                                              最先端AIは果たして創造力を有していると言えるのだろうか?この議論は未だ結論の出ない話題ではあるが、1つの指標として、最先端のAI言語モデルである、OpenAIのGPT-4が、創造性の中核的指標である発散的思考を測定するためにデザインされたテストにおいて、人間の参加者を凌駕したことが、アーカンソー大学の研究によって明らかになった。 このAIの能力の探求は、単一の正解を持たない問題に対してユニークで複雑な解決策を生み出す可能性を示している。 発散的思考とは、例えば “両親と政治の話をしないようにするにはどうしたらいいか?”といったような、予想される解答が一つもない質問に対して、独自の解答を生み出す能力のことである。この研究で、GPT-4は人間の参加者よりも独創的で、詳細な答えを出したのだ。 「The current state of artificial intelligence gener

                                                                創造性テストでGPT-4が人間を上回る結果を示す | TEXAL
                                                              • 【Gemini Ultra 1.0 VS GPT-4】史上最強LLMの性能を比較したら普通にGPT-4の方がすごかった件 | WEEL

                                                                Gemini Ultra 1.0の概要 Gemini Ultra 1.0は、Googleが開発したマルチモーダル生成AI(MLLM)「Gemini」シリーズの最高峰モデルで、現時点で最高クラスの性能を持つマルチモーダル生成AIであることは間違いないです。 そんなGemini Ultra 1.0は、あのGPT-4すら上回る性能を有しているとされ、以下の画像のようにほとんどのベンチマークでGPT-4を上回るスコアを獲得しています。 引用元:https://japan.googleblog.com/2023/12/gemini.html 引用元:https://japan.googleblog.com/2023/12/gemini.html 具体的には、性能比較全32項目のうち30項目で、GPT-4に勝利し、理数&人文で全57科目の問題集「MMLU」では、専門家にも勝利するほどのスコアを獲得して

                                                                  【Gemini Ultra 1.0 VS GPT-4】史上最強LLMの性能を比較したら普通にGPT-4の方がすごかった件 | WEEL
                                                                • OpenAI、“怠けにくい”「GPT-4 Turbo」プレビューリリースや値下げを発表

                                                                  米OpenAIは1月25日(現地時間)、「GPT-4」が怠け者になってきたという苦情を受け、新たな「GPT-4 Turbo」(バージョンはgpt-4-0125-preview)のプレビューモデルをリリースすると発表した。 このモデルは、コード生成などのタスクで、タスクを完了しない(怠ける)ケースを減らすことを目的とする。また、英語以外のUTF-8に関連するバグの修正も含まれる。 GPT-4 Turboは、昨年11月の「OpenAI DevDay」で発表されたGPT-4の改良版モデル。2023年4月までのWebデータでトレニングされており、コンテキストウィンドウはGPT-4の4倍になる。また、テキスト分析向けとテキストと画像の両方を理解するものの2つのバージョンが用意される。 向こう数カ月中に、GTP-4 Turboの公式版を一般公開する予定としている。 同社はまた、GPT-3.5 Turb

                                                                    OpenAI、“怠けにくい”「GPT-4 Turbo」プレビューリリースや値下げを発表
                                                                  • AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】

                                                                    TOPコラム海外最新IT事情AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 2024年1月23日 米Metaと米ニューヨーク大学に所属する研究者らが発表した論文「Self-Rewarding Language Models」は、大規模言語モデル(LLM)が自分自身に報酬を与えることで繰り返し学習する「自己報酬型言語モデル」を提案した研究報告である。このモデルは、自身が生成した問題に対する応答に報酬を割り当て、その結果をトレーニングデータとして使用。自己を反復して訓練することで、精度を向上させられる。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容

                                                                      AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】
                                                                    • 基盤モデル(GPT-4)はプロンプトの工夫で専門特化モデルに匹敵するほど性能が向上することが「医学分野」で示唆される | AIDB

                                                                      OpenAIの開発したGPT-4などの基盤モデルは、多様なタスクにおいて高い能力を発揮しています。一方で深い専門知識が試される領域においては、専門知識でトレーニングされた特化型モデルと比較して、汎用モデルの性能は劣るだろうと考えられてきました。しかし、Microsoftの研究者たちが最近行った実験によると、その前提には一考の余地がありそうです。 研究では、医学分野において、特殊なトレーニングを施されていない(と考えられている)GPT-4が、プロンプトの工夫を通して、専門モデルと同等あるいはそれ以上の成績を収めることが示唆されました。研究結果は、単に基盤モデルの性能を評価するだけでなく、プロンプトの工夫がAIの能力をいかに引き出すかという視点を提供しています。 本記事では実験結果を中心に報告内容を見ていきます。 参照論文情報 タイトル:Can Generalist Foundation Mo

                                                                        基盤モデル(GPT-4)はプロンプトの工夫で専門特化モデルに匹敵するほど性能が向上することが「医学分野」で示唆される | AIDB
                                                                      • GPT-4 Turboにドキュメントのチャンク分けを任せてみる - EXPLAZA Tech Blog

                                                                        はじめに こんにちは、LLM Advent Calendar 2023 4日目の記事を担当する_mkazutakaです。よろしくお願いします。 LLM Advent CalendarといってもRAGの話になりますが、ご容赦ください。 企業独自のデータを使ってLLMからの出力を制御する際には、検索拡張生成(いわゆるRAG)が使われます。 RAGの実装方法としては、「PDFからドキュメント情報を読み取り検索エンジンに保存」「ユーザの入力する質問文から関連するドキュメントを検索エンジンから取得」「取得したものをコンテキストとしてプロンプトに含める」という流れが一般的だと思います。 この際、RAGの課題の一つでもあるのですが、検索結果から取得するドキュメントのサイズ(いわゆるチャンクサイズ)をどれぐらいのものにするかというものがあります。チャンクサイズが小さすぎるとLLMは関連するコンテキストから

                                                                          GPT-4 Turboにドキュメントのチャンク分けを任せてみる - EXPLAZA Tech Blog
                                                                        • マルチモーダルLLMの応用動向の論文調査

                                                                          社内のテックトークで紹介しました。 論文内で議論しているマルチモーダルLLMの活用方法や課題などを紹介しています。 詳しいアルゴリズムの話はしていません。

                                                                            マルチモーダルLLMの応用動向の論文調査
                                                                          • ChatGPTが科学的仮説を裏付けるためデータセットを捏造するとの指摘

                                                                            チャットAIのChatGPTのベースとなっている自然言語処理AIモデルのGPT-4は、科学的仮説を裏付けるためにデータセットを捏造するケースがあるという論文が発表されました。 Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research | Ophthalmology | JAMA Ophthalmology | JAMA Network https://jamanetwork.com/journals/jamaophthalmology/article-abstract/2811505 ChatGPT generates fake data set to support scientific hypothesis https://www.nature.com/

                                                                              ChatGPTが科学的仮説を裏付けるためデータセットを捏造するとの指摘
                                                                            • make real • tldraw

                                                                              Draw a ui and make it real with tldraw.

                                                                                make real • tldraw
                                                                              • GPT-4Vで“動画”を分析 米Microsoftが「MM-VID」発表

                                                                                このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 米Microsoft Azure AIに所属する研究者らが発表した論文「MM-Vid: Advancing Video Understanding with GPT-4V(ision)」は、GPT-4で手書きの文字や図を読み取れるようになる技術「GPT-4V(ision)」を利用してビデオの内容を詳細なスクリプトに変換し、大規模言語モデル(LLM)に高度なビデオ理解能力を与えるという研究報告である。 長時間のビデオ、特に1時間以上のものを理解するのは、複数のエピソードにわたる画像や音声のシーケンスを分析する高度な手法が求められる複雑なタスク

                                                                                  GPT-4Vで“動画”を分析 米Microsoftが「MM-VID」発表
                                                                                • OpenAI初デベロッパーイベントで発表された11のこと

                                                                                  OpenAI初デベロッパーイベントで発表された11のこと2023.11.07 12:306,476 Maxwell Zeff - Gizmodo US [原文] ( そうこ ) ChatGPTで知られるOpenAIが、自社初となるデベロッパーカンファレンス「DevDay」を開催しました。CEOのサム・アルトマン氏がステージに立った基調講演では、現状報告や最新モデルが発表されました(こちらの記事もどうぞ)。 アルトマン氏いわく、現在200万人の開発者、100万人の毎週アクティブユーザーを抱え、フォーチュン500掲載企業の92%が導入しているというOpenAIプロダクト。「世界最先端かつ最も広く使われているAIプラットフォーム」だと、同社プロダクトを自負。 以下、DevDayのメインとなった発表された11のことを紹介します。 新モデルChatGPT-4 Turbo新モデル「GPT-4 Turb

                                                                                    OpenAI初デベロッパーイベントで発表された11のこと