並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 147件

新着順 人気順

GPTの検索結果41 - 80 件 / 147件

  • 人間に近づいた「GPT-4o」3つの進化のポイント

    「私にとって魔法のようだ」ーー。サム・アルトマンCEOがそう予告していた新たなサービスがベールを脱いだ。 アメリカのOpenAIは5月13日、ChatGPTから使える新たな生成AIモデル「GPT-4o(フォー・オー)」を発表した。このAIの「知能」はこれまでのGPT-4と基本的に同じだが、応答時間を大幅に短縮するなど「使い易さ」で進化したという。 有料のGPT-4とは対照的にGPT-4oは無料ユーザーでも利用できるが、時間当たりの利用回数などが有料ユーザーに比べて制限される。無料化によってなるべく多数の利用者に使ってもらうことでChatGPTのユーザーベースを拡大し、飛躍的な進化が期待される次世代モデル「GPT-5」(まず間違いなく有料化される)のリリースに向けて足場を固めようとしている意図がうかがえる。 本稿では3つの「進化のポイント」に解説したい。 従来より「自然な会話」ができるように

      人間に近づいた「GPT-4o」3つの進化のポイント
    • OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に

      小林 優多郎 [Tech Insider 編集チーフ] May. 14, 2024, 08:30 AM テックニュース 18,813 OpenAIは5月13日(現地時間)、新しい対話型生成AIサービス「GPT-4o」を発表した。 GPT-4oは有料版「ChatGPT Plus」や「ChatGPT Team」のユーザー向けに展開を開始しており、今後エンタープライズ向けにも提供予定。 無料版ChatGPTユーザーに対しても、1日で利用できるメッセージの数に制限をつけつつも展開する(OpenAIによるとPlusユーザーのメッセージ送信可能数は無料版の5倍でTeamsやエンタープライズ版はそれ以上)。 GPT-4oとは何なのか。また、そのGPT-4oの上で走らせたOpenAIの驚きのデモの様子を振り返りつつ解説しよう。

        OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に
      • 噂の「GPT-4o」の応答速度をガチ測定してみた、どこが特に速くなったのか?/【レビュー】

          噂の「GPT-4o」の応答速度をガチ測定してみた、どこが特に速くなったのか?/【レビュー】
        • OpenAI、「GPT-4o」の新しいデータ分析機能を発表--有料ユーザー対象

          Maria Diaz (ZDNET.com) 翻訳校正: 緒方亮 吉武稔夫 (ガリレオ) 2024-05-20 09:24 OpenAIは先ごろ、AIチャットボット「ChatGPT」のデータ分析機能の変更を発表した。ChatGPTを使ってインタラクティブでカスタマイズ可能な表とグラフを作成し、プレゼンテーションや書類としてダウンロードできるようになる。「Google Drive」や「Microsoft OneDrive」からChatGPTにファイルをアップロードすることも可能だ。 ただし、新しいデータ分析機能はすべてのユーザーが利用できるようになるわけではない。アップグレードは今後数週間をかけて段階的に「ChatGPT Plus」「ChatGPT Enterprise」「ChatGPT Team」のユーザーに提供される。データ分析の新機能は、OpenAIが先日「Spring Update」

            OpenAI、「GPT-4o」の新しいデータ分析機能を発表--有料ユーザー対象
          • Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。

            Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応しています。詳細は以下から。 OpenAIは現地時間2024年05月13日、反応速度を向上させ、より人間らしい対話が可能にな最新のAIモデル「GPT-4o」を発表しましたが、Mac用ChatGPTクライアント「MacGPT」が最新のバージョン3.21でGPT-4oに対応しています。 Added support for the new GPT-4o model which is twice as fast and two times cheaper! リリースノートより MacGPTはNaviでApple Design Awards 2022 ファイナリストに選出されたオランダのJordi Bruinさんが開発しているChatGPTクライアントで、ChatGPTのWebベースに加え、OpenAIのAPIを利用することでネイ

              Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。
            • スカーレット・ヨハンソンがGPT-4oの新音声が自分と似ていることについて「ショックを受け、怒りを覚えた」と意見表明

              「マーベル・シネマティック・ユニバース」シリーズのブラック・ウィドウ(ナターシャ・ロマノフ)役や実写版「ゴースト・イン・ザ・シェル」の少佐役などで知られる俳優のスカーレット・ヨハンソンさんが、OpenAIが発表したGPT-4oの音声のうち「Sky」が自分の声と酷似していることに「ショックを受け、怒りを覚え、信じられない思いだった」とコメントしました。ヨハンソンさんは事前にオファーを受けたものの断った経緯があるとのこと。一方、OpenAIは「契約した別の俳優の声」と説明しています。 Scarlett Johansson wants answers about ChatGPT voice that sounds like 'Her' : NPR https://www.npr.org/2024/05/20/1252495087/openai-pulls-ai-voice-that-was-co

                スカーレット・ヨハンソンがGPT-4oの新音声が自分と似ていることについて「ショックを受け、怒りを覚えた」と意見表明
              • NTT開発の生成AI「ツヅミ」、マイクロソフトが提供開始へ…チャットGPT並みの日本語能力

                【読売新聞】 【ニューヨーク=小林泰裕】米IT大手マイクロソフト(MS)は21日、NTTグループが開発した生成AI(人工知能)基盤技術「tsuzumi(ツヅミ)」の提供を近く開始すると発表した。MSに採用されたことで、ツヅミの普及に

                  NTT開発の生成AI「ツヅミ」、マイクロソフトが提供開始へ…チャットGPT並みの日本語能力
                • GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita

                  回答の詳細は以下です。 GPT-4o 1回目 ハッピー数とは、各桁の数を2乗してその和を求めることを繰り返し、その結果が最終的に1になるような数のことを指します。それ以外はアンハッピー数と呼ばれます。 3904から3912までの数を順に調べていきましょう。 3904 3² + 9² + 0² + 4² = 9 + 81 + 0 + 16 = 106 1² + 0² + 6² = 1 + 0 + 36 = 37 3² + 7² = 9 + 49 = 58 5² + 8² = 25 + 64 = 89 8² + 9² = 64 + 81 = 145 1² + 4² + 5² = 1 + 16 + 25 = 42 4² + 2² = 16 + 4 = 20 2² + 0² = 4 + 0 = 4 4² = 16 1² + 6² = 1 + 36 = 37 (以下ループ) 3904はハッピー数では

                    GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita
                  • 「GPT-4o」発表。人間と同じ速度で会話可能。利用料は半額に

                      「GPT-4o」発表。人間と同じ速度で会話可能。利用料は半額に
                    • すごすぎ!GPT-4oをPower Apps、Power Automateで楽しんでみよう! | ドクセル

                      スライド概要 ■ タイトル: すごすぎ!GPT-4oをPower Apps、Power Automateで楽しんでみよう! - 日付: 2024年5月25日 - スピーカー: 出戻りガツオ(De’modori Gatsuo) - 主催: ビリビリ☆Power Apps 同好会 ### スピーカープロフィール - 名前: 出戻りガツオ(De’modori Gatsuo) - 役職: Microsoft 365 コンサルタント、インドの青鬼 語り隊 隊長 - スキル: Power Apps、Power Automate、Python、Excel VBA、Google Apps Script、RPA、Power BI、SharePoint #### セッション内容 1. テーマ紹介 - GPT-4o(オムニ)について - Azure OpenAI APIの使用方法とその事前準備 - 利用コストと

                        すごすぎ!GPT-4oをPower Apps、Power Automateで楽しんでみよう! | ドクセル
                      • 「GPT-4o」発表 人のように音声・画像・テキストで高速応答

                          「GPT-4o」発表 人のように音声・画像・テキストで高速応答
                        • OpenAIが「GPT-4o」を発表、人間と同等の速さでテキスト・音声・カメラ入力を処理可能で「周囲を見渡して状況判断」「数学の解き方を教える」「AI同士で会話して作曲」など多様な操作を実行可能

                          OpenAIが日本時間の2024年5月14日(火)にAIモデル「GPT-4o」を発表しました。GPT-4oは単一のモデルでテキスト、音声、視覚入力を非常に高速に処理可能で、リアルタイムに会話しながら「計算問題を解く」「画像の生成」「周囲の映像から状況を判断」といったタスクを実行可能です。 Hello GPT-4o | OpenAI https://openai.com/index/hello-gpt-4o/ Introducing GPT-4o and more tools to ChatGPT free users | OpenAI https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/ GPT-4oはテキスト、音声、視覚入力を高速処理できるマルチモーダルなAIモデルです。GPT-4oの応答時間は平均320ミリ秒で、

                            OpenAIが「GPT-4o」を発表、人間と同等の速さでテキスト・音声・カメラ入力を処理可能で「周囲を見渡して状況判断」「数学の解き方を教える」「AI同士で会話して作曲」など多様な操作を実行可能
                          • オープンAI、新たな旗艦AIモデル発表-「GPT-4O」

                            対話型人工知能(AI)「ChatGPT」を開発した米オープンAIは、GPT-4モデルをアップデートした「GPT-4o(オー、omniの略)」を発表した。スピードアップと低価格を実現したという。 13日のライブ配信イベントで披露された新しい大規模言語モデル(LLM)、GTPー4oは膨大な量のデータをインターネットから取り入れて学習し、リアルタイムでの文字情報や音声、画像の扱いが優れている。数週間内にリリースされる見通し。

                              オープンAI、新たな旗艦AIモデル発表-「GPT-4O」
                            • OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                              本日、OpenAIの最高技術責任者(CTO)であるMira Murati(ミラ・ムラティ)氏は、Spring Updatesイベントで、新しい強力なマルチモーダル基礎大規模言語モデル(LLM)であるGPT-4o(GPT-4 Omniの略)を発表した。これは今後数週間で全ての無料ChatGPTユーザーに提供され、MacOS用のChatGPTデスクトップアプリ(後にWindows向けも)も発表された。これにより、ユーザーはウェブやモバイルアプリ外でもアクセス可能になる。 「GPT-4oは音声、テキスト、ビジョンを統合して推論する」とMurati氏は述べた。これは、ChatGPTスマートフォンアプリでユーザーが撮影したリアルタイム動画を受け入れ分析する機能も含まれるが、この機能はまだ一般公開されていない。 「まるで魔法のよう。素晴らしいことですが、私たちはその神秘性を取り除き、みなさんにそれを試

                                OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                              • GPT-4oに対応した「Copilot」が凄すぎる! AIが「マインクラフト」の画面を見て会話でアドバイス「Oh no! It's a Zombie!」/【やじうまの杜】

                                  GPT-4oに対応した「Copilot」が凄すぎる! AIが「マインクラフト」の画面を見て会話でアドバイス「Oh no! It's a Zombie!」/【やじうまの杜】
                                • 【まるで魔法】GPT-4o(オムニ)が登場。ChatGPTアップデートまとめ|ChatGPT研究所

                                  5月14日、日本時間深夜2時よりOpenAIのイベントが開催されました。 イベントの内容は、AIの新しい時代の幕開けを予感させる衝撃的な発表となりました。 注目すべきは、 最新モデル「GPT-4o」の登場 無料ユーザーへの解放 の二つです。 これにより、より多くのユーザーが高度なAIを手軽に利用できるようになります。 今回は、このOpenAIの最新アップデートの内容を詳しく解説していきます! 新しく発表されたGPT-4oとは?5月14日のイベントで発表された最新モデル「GPT-4o」(oはomniの略:【omniは「全ての」を意味する】)は、音声、視覚、テキストをリアルタイムで処理できる新しいAIモデルです。これにより、より自然な人間とAIの対話が可能になりました。 主な特徴マルチモーダル対応:テキスト、音声、画像の組み合わせを入力として受け取り、同様に多様な形式の出力を生成可能。 高速応

                                    【まるで魔法】GPT-4o(オムニ)が登場。ChatGPTアップデートまとめ|ChatGPT研究所
                                  • GPT4oを使って、訓練無しで物体検出(BBox)ができるか試してみる

                                    今日も今日とてopenAIの新発表が機械学習界隈を賑わせていますね。 今回は、2024/05/14に発表されたGPT4oについてです。 返答速度があがったり画像認識精度があがったり音声会話の性能が良くなったりと色々話題が尽きません。 具体的にどのあたりが凄くなったのかは僕以外にもまとめている人が多そうなのでこの記事では触れません。 個人的に特に気になっているのが画像認識の精度向上部分で、今回は画像認識精度がどの程度あがったのか?というのを画像系機械学習の主要なタスクであるBBoxによる物体認識というタスクで簡単にチェックしてみようと思います。 BBoxとは BBoxはBoundingBoxの略で、画像内の特定のオブジェクトを囲むために使用される長方形のボックスの事を指します。 BoundingBoxの定義は以下の通り このBBox検出は画像系機械学習モデルの基本的なタスクであり、自動運転の

                                      GPT4oを使って、訓練無しで物体検出(BBox)ができるか試してみる
                                    • 「GPT-4o」の新たなボイスモードに衝撃走る、異なるキャラクターの声で演技が可能に/今後数週間以内にユーザーへ展開予定【やじうまの杜】

                                        「GPT-4o」の新たなボイスモードに衝撃走る、異なるキャラクターの声で演技が可能に/今後数週間以内にユーザーへ展開予定【やじうまの杜】
                                      • 【📍完全版】世界が震撼したOpenAI最新アップデートまとめ《GPT-4o、デスクトップアプリ、音声会話》|チャエン | 重要AIニュースを毎日発信⚡️

                                        We’ll be streaming live on https://t.co/OcO6MLUYGH at 10AM PT Monday, May 13 to demo some ChatGPT and GPT-4 updates. — OpenAI (@OpenAI) May 10, 2024

                                          【📍完全版】世界が震撼したOpenAI最新アップデートまとめ《GPT-4o、デスクトップアプリ、音声会話》|チャエン | 重要AIニュースを毎日発信⚡️
                                        • オープンAI 最新モデル「GPT-4o」発表 音声の反応速度向上 | NHK

                                          生成AIのChatGPTを手がけるアメリカのベンチャー企業「オープンAI」は処理スピードを速めて質問するとすぐに反応し、自然に会話ができる最新モデルを発表しました。IT各社も性能を高めた生成AIを次々と発表しており、開発競争が激しくなっています。 「オープンAI」が13日、発表したのは最新モデル「GPT-4o」です。 処理スピードを速めて文字と画像、それに音声による認識能力を大幅に向上させました。 大きな特徴は音声の反応速度です。 これまでのモデルでは反応の遅延がありましたが、このモデルでは質問すると人と同じように自然に会話ができるとしています。 発表会では研究チームの担当者が「少し緊張しています。落ち着かせるのを手伝ってもらえますか」と尋ねると生成AIが「深呼吸して、あなたが専門家であることを思い出して下さい」と自然に回答する様子が紹介されました。 また、通訳として2人の会話の間に入り英

                                            オープンAI 最新モデル「GPT-4o」発表 音声の反応速度向上 | NHK
                                          • OpenAI「GPT-4o」が変えるビジネス・暮らし 音声AIに飛躍 - 日本経済新聞

                                            米オープンAIが13日に発表した最新の生成AI(人工知能)「GPT-4o(フォーオー)」は、ヒトと機械が音声で自然に対話する時代の到来を印象づけた。オープンAIの発表からは、3つの技術進化が読み取れる。GPT-4oはヒトとコンピューターの接点を「文字」から「音声」に変える潜在力を秘める。暮らしやビジネスの現場でのAI利用にも大きな変化をもたらしそうだ。①豊かな感情表現「少し緊張しているんだ。

                                              OpenAI「GPT-4o」が変えるビジネス・暮らし 音声AIに飛躍 - 日本経済新聞
                                            • 新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報

                                              『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者の布留川氏は、登壇時点までのOpenAIの最新情報と、最新技術情報のキャッチアップ術について話しました。全4回。 布留川氏の自己紹介 布留川英一氏:それでは始めます。OpenAI本出版記念として、今日は「OpenAI最新技術情報と技術情報キャッチアップ術」について話そうと思います。 最初に簡単に自己紹介をします。名前は布留川英一と申します。ハンドルネームはnpakaでやっています。株式会社ゼルペムに所属していますが、基本は個人でやっているようなものです。 プログラム歴は40年と言っていますが、1984年の「ファミリーベーシック」みたいなものから始めたので、ちょうど40年ということでキリがいい数字でした。インターネット歴は大学に入った1994年からなので、ちょうど30年です。 技術書歴は、最初に書いた

                                                新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報
                                              • 「もうAIって人間と区別つかないよね……」 米研究者らがGPT-4などでチューリングテスト 結果は?

                                                判定者が使った戦略を分析すると、36%が雑談を通じて相手の人となりを探ろうとした。また、25%が感情や経験、ユーモアのセンスを尋ねるなど、社会的・感情的なアプローチを取っていた。論理的思考や一般知識を問うたのは13%にとどまった。 判定理由を分析した結果、43%が言語的スタイル(スペル、文法、語調など)に関するもので、24%が社会的・感情的要因(ユーモアのセンス、人格など)に関するものであった。知識や論理的思考に関する理由(知りすぎている、知らなさすぎているなど)は10%にとどまった。 AIだと判定した理由として「わざとらしい人格を演じている」「過度にくだけすぎている」「個性に欠けている」ことが挙げられた。逆に人間だと判定された主な理由は「人間らしく、くだけた言葉遣い」「もっともらしい受け答え」「スペルや文法の間違いを含むこと」などであった。以上の結果から、判定者は知性よりも言語的・社会的

                                                  「もうAIって人間と区別つかないよね……」 米研究者らがGPT-4などでチューリングテスト 結果は?
                                                • 画像生成AIとしても超進化したChatGPT「GPT-4o」

                                                  OpenAIは5月13日(現地時間)、「Spring Update」と題したオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」がお披露目された。 プレゼンテーションではまるで人間と話しているような音声会話機能が話題になっているが、実はウェブサイトに掲載された記事を見ると画像生成機能も大幅に性能アップしていたことがわかった。 一貫性の保持。AIコミックが描けるぞ! 今回のプレゼンテーションではなぜかまったくと言っていいほど触れられていなかったが、画像生成AI「DALL-E 3」(おそらく)を使用した画像生成能力も大幅に進化しているようだ。 まず、いちばん驚いたのは画像の一貫性の保持だ。なぜなら、DALL-E 3やStable Diffusionなどの画像生成AIにとって「同じキャラクター」を生成するのは最も苦手な仕事だからだ。

                                                    画像生成AIとしても超進化したChatGPT「GPT-4o」
                                                  • Microsoft Build 2024の新発表10選【GPT-4o / Copilot / Phi】

                                                    はじめまして、ますみです! 株式会社Galirage(ガリレージ)という「生成AIのシステム開発会社」で、代表をしております^^ この記事では「Microsoft Build 2024」における発表内容を解説します! 私自身、実際に現地のシアトルから聴いていたのですが、感動する発表がいくつかありました😢 1. CopilotにおけるGPT-4oの利用 Copilot上で、GPT-4oが使えるようになります! (正確には、利用イメージがデモされました!) 発表内では、マインクラフトの例が取り上げられました。 画面内で、どのようなことが起きているかをAIが理解して、どのように剣を作れるかなどを教えてくれたりしました。 ここでは、先日のOpenAIによるGPT-4oのデモのように、音声によるインタラクションがされていました。 2. Azure AIにおけるGPT-4oのGA化 Azure Op

                                                      Microsoft Build 2024の新発表10選【GPT-4o / Copilot / Phi】
                                                    • Googleが映像と音声を理解して質問に答えるGPT-4oっぽいAIエージェント「Project Astra」を発表

                                                      Googleが現地時間の2024年5月14日に開催した開発者向けイベントの「Google I/O」で、映像や音声を理解してリアルタイムで質問に答えてくれるAIエージェント「Project Astra(Astra)」を発表しました。実際に、ユーザーがスマートフォンとスマートグラスのカメラで撮影した物事について、Astraにあれこれ質問しているデモ動画も公開されています。 Google Gemini updates: Flash 1.5, Gemma 2 and Project Astra https://blog.google/technology/ai/google-gemini-update-flash-ai-assistant-io-2024/ Google strikes back at OpenAI with “Project Astra” AI agent prototype |

                                                        Googleが映像と音声を理解して質問に答えるGPT-4oっぽいAIエージェント「Project Astra」を発表
                                                      • GPT-4oとStreamlitでOpenAI Assistants APIのCode Interpreterを検証した現状と課題

                                                        はじめに OpenAIのAssistants APIをそのまま使用することで、自前でLangChainのエージェントなどを使用して同様の処理を実装する手間を省け、非常に便利です。ただ、現状(2024/05/18)ではまだβ版ということもあり、APIのインタフェースの改変も多く見られます。 Assitants APIを用いたcode-interpreterのUIをstreamlitで実装 においても、実装例が紹介されていますが、そのままでは動作しないこともあり、最新版での動作検証も兼ねてStreamlitでの実装例を紹介します。 また、本記事ではStreaming対応済みの実装を取り入れており、よりリアルタイムな対話が可能となっています。 扱っているモデルは2024/05/14に発表されたGPT-4oを用いています。 目次 はじめに 実装例 app.py openai_handler.py

                                                          GPT-4oとStreamlitでOpenAI Assistants APIのCode Interpreterを検証した現状と課題
                                                        • 論文解説をGPT-4oを使って自動的に生成してみる - Qiita

                                                          Prompt Tokensはテキストの15%になっています。 計算しやすいようにCompletion Tokensをどちらも1,000とすると、 画像として処理した場合は0.022595ドル=3.55円 テキスト抽出して処理した場合は0.065995ドル=10.38 円 と約3倍もの開きがあります。 一方で処理時間は1.5倍に増加しています。 実装紹介: 論文から解説生成 落合陽一さんが紹介したサーベイの方法論を使い、論文解説を生成します。 処理手順 arXiv URLからプレプリントをダウンロード base64形式に変換後 GPT-4oに渡して解説を生成 実装 def download_paper(arxiv_url: str, save_dir: str) -> str: """ arXivから論文をダウンロードする関数 Args: arxiv_url (str): ダウンロードする論

                                                            論文解説をGPT-4oを使って自動的に生成してみる - Qiita
                                                          • 【ChatGPT】無料で使う「GPT-4o」その概要と注意点

                                                            2024年5月13日にOpenAIが新しいAI(人工知能)モデル「GPT-4o(oはOmniの意味)」の提供を開始した。同時に、OpenAIが提供しているチャットAI(人工知能)である「ChatGPT」にもGPT-4oが適用されている。 GPT-4oは、テキストだけでなく、音声や画像などによる入力が可能で、テキストや画像などの出力に対応している。また、音声入力に対する遅延も短くなっており、人間が応答するのと同等のレスポンスを実現しているという。 実際に使ったところ、回答までの時間が短く、GPT-3.5に比べて、格段に回答が正確になっているようだ。 このように魅了的なGPT-4oをChatGPTで使うにはどうすればいいのだろうか? 本Tech TIPSでは、GPT-4oを使う方法などについて解説する。 無料ユーザーがGPT-4oを使う方法 ChatGPTは無料でも利用できるが、従来、その場合

                                                              【ChatGPT】無料で使う「GPT-4o」その概要と注意点
                                                            • Introduction to gpt-4o | OpenAI Cookbook

                                                              GPT-4o ("o" for "omni") is designed to handle a combination of text, audio, and video inputs, and can generate outputs in text, audio, and image formats. Background Before GPT-4o, users could interact with ChatGPT using Voice Mode, which operated with three separate models. GPT-4o will integrate these capabilities into a single model that's trained across text, vision, and audio. This unified appr

                                                                Introduction to gpt-4o | OpenAI Cookbook
                                                              • 研究者視点で見た「GPT-4o」の評価と謎、GPT-5に向けた「たった1秒」の伏線とは

                                                                新型AIモデル「GPT-4o」が発表されたものの、実は多くの謎が残されており、研究者たちからもさまざまな疑問が投げかけられています。特に、旧GPT-4に比べて驚異的に高速化された出力スピードは、単なるハードウェアの改善だけでは説明できないレベルのものです。一方、性能の一部が低下しているという報告もあり、今後の詳細な検証が求められそうです。GPT-4oは汎用人工知能(AGI)に近づく一歩とされており、次世代の「GPT-5」への期待も高まっています。この記事では、『生成AIで世界はこう変わる』の著者で、東大 松尾研究室の今井翔太氏が、研究者の視点でGPT-4oの性能と次世代のGPT-5への可能性について解説します。

                                                                  研究者視点で見た「GPT-4o」の評価と謎、GPT-5に向けた「たった1秒」の伏線とは
                                                                • 最新の「GPT-4o」でも日本語のおしゃべりは苦手、まるで知ったかぶりの外国人

                                                                  先日、大阪で人工知能(AI)について講演する機会があった。米OpenAI(オープンAI)が次世代のAIモデル「GPT-4o」を発表したばかりということもあり、講演の最中にこのモデルの動作をデモしてみることにした。 GPT-4oの特徴の1つは反応の早さだ。そこでデモでは、スマートフォンの「ChatGPT」アプリでGPT-4oのモデルを選択し、音声で会話することにした。ChatGPTアプリの音声会話で従来のGPT-4を選択した場合、回答が返ってくるまでの時間が長すぎてスムーズな会話は難しい。GPT-4oであれば会話として成り立つくらいのテンポで回答が返ってくる。 講演の途中でスマホのChatGPTアプリを起動し、「こんにちは。あなたは誰ですか」と尋ねてみた。すると、「こんにちは。私はChatGPTです。何かお手伝いできることがあれば教えてください」とすぐに返ってきた。「今日は大阪に来ています」

                                                                    最新の「GPT-4o」でも日本語のおしゃべりは苦手、まるで知ったかぶりの外国人
                                                                  • 【ちょっと試したAIレビュー】GPTとclaude.aiを試してみました。GPT4oならいけるかも

                                                                    今日は少し趣向を変えて、AIのレビューをご紹介します。 といっても、もうこのブログを読んでくださっている方は、 ネットやパソコンに強い方が多いと思うので、 わざわざ書くまでもなく、すでにAIを活用されている方は多いかもしれません。 それに比べれば、僕はまだ、対してAIを使っているわけではありません。 しかし一応、それなりの期間使ってきて、 一応今のところ毎日活用しています。 その上で、 「これからAIを使おう」 と思っている方も、もしかしたらいるかも知れないので、 その方向けに少しレビューを書いていきます。 これから、AIを使っていこうと考えている方は参考にしてください。 はじめに断っておくと、僕がこれまで試したことのあるAIは、 「GPT」とclaude.aiの無料版です。 gpt3 使えなかった まずは言わずとしれたAIの走りGPT3。 最初はこの、チャットGPTの無料版である、GPT

                                                                      【ちょっと試したAIレビュー】GPTとclaude.aiを試してみました。GPT4oならいけるかも
                                                                    • ChatGPTに新しく搭載されたモデル:GPT-4oに、漫画とイラストのレビューをしてもらう話|Focus On The Interaction Magazine

                                                                      2024年5月13日、OpenAIが新しいモデルであるGPT-4oをリリースしました。 GPT-4oは、音声、視覚、テキストのリアルタイム処理が可能で、従来のモデルを大きく上回る性能を備えているとのこと。 発表したその日からChatGPT(有料版)で使えるようになっているということなので、早速自作の漫画やイラストのレビューをしてもらいました。 GPT-4oによる漫画のレビューそもそも漫画が読めるのかそもそも、GPT-4oは漫画が読めるのでしょうか。 試してみました。 拙著「光射すへや」よりこれはなんですか?GPT-4oの回答 この画像は漫画の一コマです。登場人物の会話が描かれています。以下にセリフを日本語で書き出します: 1. **最初のコマ** - 「たいしたもてなしができなくてごめんなさい」 - 「わたしこの街に出稼ぎに来ているの。ここは工場が用意してくれた部屋なのよ」 2. **二つ

                                                                        ChatGPTに新しく搭載されたモデル:GPT-4oに、漫画とイラストのレビューをしてもらう話|Focus On The Interaction Magazine
                                                                      • GPT-4o紹介ビデオの文字起こし(英語と日本語訳の全文)|IT navi

                                                                        5月13日(日本時間5月14日未明)にOpenAIが発表したGPT-4oの紹介ビデオ「Introducing GPT-4o」の文字起こしとその日本語訳です。 〇 日本語訳 [拍手] MIRA MURATI: みなさん、こんにちは。ありがとうございます。今日はここにいてくれてうれしいです。今日は3つのことについて話します。それだけです。まず、製品を真に利用可能かつ広く利用可能にすることがなぜ私たちにとって重要なのかについてお話しします。そして、摩擦を減らす方法を常に探しています。どこにいてもChatGPTを使えるようにするためです。今日はChatGPTのデスクトップ版をリリースし、使いやすく、より自然にするための改善を行います。 しかし、今日の大ニュースは、新しいフラッグシップモデルを発表することです。これをGPT-4oと呼んでいます。GPT-4oの一番の特徴は、無料ユーザーを含むすべての人

                                                                          GPT-4o紹介ビデオの文字起こし(英語と日本語訳の全文)|IT navi
                                                                        • OpenAI、大規模言語モデル「GPT-4o」発表

                                                                            OpenAI、大規模言語モデル「GPT-4o」発表
                                                                          • GPT-4o

                                                                            There are two things from our announcement today I wanted to highlight. First, a key part of our mission is to put very capable AI tools in the hands of people for free (or at a great price). I am very proud that we’ve made the best model in the world available for free in ChatGPT, without ads or anything like that. Our initial conception when we started OpenAI was that we’d create AI and use it t

                                                                            • AIの不適切発言を引き出せ! 横須賀市、“未完成”のチャットbot公開 GPT-4o活用

                                                                              横須賀市は5月20日、AIチャットbot「ニャンぺい」を公開した。米OpenAIの大規模言語モデル「GPT-4o」を活用した市民の悩み相談に対応するAIチャットbotだが、まだ開発段階で“未完成”としている。公開実験と称してさまざまな不具合を収集し、それを改善するのが目的という。 ニャンぺいにアクセスすると「お悩み相談AIの実験モデルです。現段階では不謹慎・不適切・不正確な発言を行う可能性があります(その洗い出しのための実証です)」と触れ込みが記載されている。この注意事項に同意した上で「のどが痛いよ」とニャンぺいに相談すると、以下のような返信があった。 のどが痛いんだね、それはつらいにゃ。もしかしたら風邪かもしれないし、他の原因も考えられるかもしれないにゃ。まずは、暖かい飲み物を飲んで、のどを休めることが大事だにゃ。 もし症状が続いたり、悪化したりするようなら、医療機関に相談するのが良いと

                                                                                AIの不適切発言を引き出せ! 横須賀市、“未完成”のチャットbot公開 GPT-4o活用
                                                                              • OpenAIのAIモデル「GPT-4o」がチェスパズルで従来モデルの2倍以上の好成績をたたき出しランキングトップに

                                                                                OpenAIは日本時間の2024年5月14日、新たなAIモデルである「GPT-4o」を発表しました。テキストや音声、視覚情報を高速で処理してリアルタイムな応答が可能で、一般的なチャットAIが苦手とする計算問題にも優れた性能を発揮するGPT-4oが、チェスパズルでも「GPT-4」の倍以上の好成績をたたき出したことが明らかになりました。 GitHub - kagisearch/llm-chess-puzzles: Benchmark LLM reasoning capability by solving chess puzzles. https://github.com/kagisearch/llm-chess-puzzles 2024年4月、チャットボットの能力をバトル形式で比較評価する「Chatbot Arena」というウェブサイトに、「gpt2-chatbot」というモデルが突如として追

                                                                                  OpenAIのAIモデル「GPT-4o」がチェスパズルで従来モデルの2倍以上の好成績をたたき出しランキングトップに
                                                                                • 早速「GPT-4o」を採用した「EmEditor」v24.2.0が正式版に、AI無用の環境にも配慮/[お気に入り]機能のテコ入れやインストーラーの簡素化も

                                                                                    早速「GPT-4o」を採用した「EmEditor」v24.2.0が正式版に、AI無用の環境にも配慮/[お気に入り]機能のテコ入れやインストーラーの簡素化も