並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 1665件

新着順 人気順

OpenAIの検索結果1 - 40 件 / 1665件

  • OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず

    米OpenAIのグレッグ・ブロックマン社長は5月18日(現地時間)、前日にヤン・ライケ氏が退社報告の中で同社がAIの安全性を軽視していると警鐘を鳴らしたことについて説明する長文ポストを、サム・アルトマンCEOとの共同署名付きでXで公開した。 ライケ氏の退職により生じた疑問への対応として、OpenAIの全体的な戦略について説明するとしている。 ライケ氏は、人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームの共同トップだった(もう1人のトップだったチーフサイエンティストのイリヤ・サツケバー氏は14日に退社している)が、OpenAIの幹部チームが「安全性を輝かしい製品の開発より後回しに」しており、その方針に同意できなかったため退社すると説明した。 ブロックマン氏は長文ポストでOpenAIによるAGI対策として

      OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず
    • ChatGPT can talk, but OpenAI employees sure can’t

      Sam Altman (left), CEO of artificial intelligence company OpenAI, and the company’s co-founder and then-chief scientist Ilya Sutskever, speak together at Tel Aviv University in Tel Aviv on June 5, 2023. | Jack Guez/AFP via Getty Images Why is OpenAI’s superalignment team imploding? Editor’s note, May 18, 2024, 7:30 pm ET: This story has been updated to reflect OpenAI CEO Sam Altman’s tweet on Satu

        ChatGPT can talk, but OpenAI employees sure can’t
      • OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」

        米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界で最適だと思ったからだ。だが、OpenAIの幹部チームと中核的優先事項についてずっと同意できず、限界点に達した」という。 Superalignmentチームはライケ氏と、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が率いてきた。サツケバー氏は14日に退社を発表している。 ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。 OpenAIは昨年2月、AGI(Ar

          OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
        • OpenAI、高度AIの安全対策チーム解消 事業拡大優先か - 日本経済新聞

          【シリコンバレー=山田遼太郎】米新興企業オープンAIが将来の高度な人工知能(AI)の実現に備えた安全対策のチームを解消したことが17日、明らかになった。退社した元幹部は新技術やサービスの導入を急ぐ同社の方針を批判する。生成AIのリーダー企業は安全性と事業拡大スピードのバランスを巡って揺れている。高度AI制御の研究チームを解散「スーパーアライメント」と呼ぶチームを事実上解散したと複数の米メディ

            OpenAI、高度AIの安全対策チーム解消 事業拡大優先か - 日本経済新聞
          • OpenAI Spring Update v.s. Google I/O 2024|大野峻典 | Algomatic CEO

            株式会社Algomaticの大野です。 今週は、OpenAI、Googleから、大きな発表がありました。今回は、2社の発表を見ながら、要点をまとめ、解説・考察していきたいと思います。 (※ なお、社内等で共有しているメモベースで箇条書き的な書き方になっております。読みづらいところがあるかもしれません。) ■ 追記:PIVOTさんでも、解説させていただきました。よければこちらも、御覧ください。 OpenAI Spring Update今回、大きく3つ、発表されました。 ① 最新のフラグシップモデル「GPT-4o」のリリース ② 新モデルの無料解放 ③ デスクトップアプリのリリース 最新のフラグシップモデル GPT-4o「GPT-4o」は、今回のOpenAIのリリースの目玉でした。 GPT-4o とはマルチモーダル(多様なデータ形式)の組み合わせでの入出力を可能にしたモデルになっています。 テ

              OpenAI Spring Update v.s. Google I/O 2024|大野峻典 | Algomatic CEO
            • OpenAIがRedditとパートナーシップを締結、RedditコンテンツでChatGPTを強化

              ソーシャルニュースサイトのRedditが、AIチャットボットのChatGPTや画像生成AIのDALL-Eを開発・提供するAI開発企業のOpenAIとパートナーシップを締結したことを発表しました。 Reddit and OpenAI Build Partnership - Upvoted https://www.redditinc.com/blog/reddit-and-oai-partner OpenAI and Reddit Partnership | OpenAI https://openai.com/index/openai-and-reddit-partnership/ OpenAI inks deal to train AI on Reddit data | TechCrunch https://techcrunch.com/2024/05/16/openai-inks-deal

                OpenAIがRedditとパートナーシップを締結、RedditコンテンツでChatGPTを強化
              • OpenAIがGoogleドライブやOneDriveから直接データをインポートできる機能などChatGPTのデータ分析機能のアップデートを発表

                OpenAIが2024年5月16日、ChatGPTでのデータ分析機能のアップデートを発表しました。GoogleドライブやMicrosoft OneDriveからデータを直接インポートする機能のほか、表やグラフを操作するための新たなビューが追加されたり、グラフを作成してダウンロードする機能が追加されたりしています。 Improvements to data analysis in ChatGPT | OpenAI https://openai.com/index/improvements-to-data-analysis-in-chatgpt/ We're rolling out interactive tables and charts along with the ability to add files directly from Google Drive and Microsoft

                  OpenAIがGoogleドライブやOneDriveから直接データをインポートできる機能などChatGPTのデータ分析機能のアップデートを発表
                • OpenAI、RedditのデータをAI学習に利用する契約締結

                  米OpenAIと米Redditは5月16日(現地時間)、「RedditとOpenAIの両方のユーザーコミュニティにさまざまな方法で利益をもたらすパートナーシップを結んだと発表した。 OpenAIはRedditのコンテンツをChatGPTなどの製品に導入する RedditはOpenAIのAIを活用した新機能をユーザーやMOD(モデレーター)に提供する OpenAIはRedditの広告パートナーになる 1つ目の項目は、Redditの投稿などをOpenAIのMLの学習に利用することを意味する。また、OpenAIはRedditのData APIにアクセスし、Redditからリアルタイムで構造化されたコンテンツを入手することで、ChatGPTなどのユーザーに最新のトピックを紹介できるようになる。 OpenAIはこれまでに、米Associated Press、独Axel Springer、仏Le Mo

                    OpenAI、RedditのデータをAI学習に利用する契約締結
                  • 次の主役「生成AIエージェント」、GoogleやOpenAIがまだ出さない怖い理由

                    今週、2024年5月第3週は、米OpenAI(オープンAI)と米Google(グーグル)が相次ぎ、生成AI(人工知能)の新機能を発表した。しかし期待されながらもリリースされなかった機能があった。生成AIが様々なアプリケーションをユーザーに代わって操作する「生成AIエージェント」だ。 今の生成AIの主役は「チャットボット」であり、ユーザーの指示(プロンプト)に対して返事をしてくれるだけだ。しかし生成AIエージェント(AIエージェントとも呼ばれる)は外部のプログラムをAPI(アプリケーション・プログラミング・インターフェース)やUI(ユーザーインターフェース)経由で操作できるので、ユーザーの指示に従って様々な作業をしてくれる。 ユーザーに代わって「商品の返品」を処理 実際にグーグルのSundar Pichai(スンダー・ピチャイ)CEO(最高経営責任者)は2024年5月14日(米国時間)に開催

                      次の主役「生成AIエージェント」、GoogleやOpenAIがまだ出さない怖い理由
                    • OpenAI、重要なアップデートを含んだ「ChatGPT for Mac v1.2024.134」をリリース。

                      OpenAIが重要なアップデートを含んだ「ChatGPT for Mac v1.2024.134」をリリースしています。詳細は以下から。 OpenAIは現地時間2024年05月13日、スマートフォンのカメラやマイクを通し状況を把握、反応速度を向上させ、より人間らしい対話が可能になった最新のAIモデル「GPT-4o」を発表するとともに、公式のChatGPTデスクトップアプリの開発を発表し、現在Mac版がChatGPT Plusユーザー向けに公開されていますが、この「ChatGPT for Mac」アプリの初のアップデートが公開されています。 ChatGPT for Macの最新バージョンはv1.2024.134となっており、アップデートはアプリケーションメニューの[更新を確認…](Sparkle)やHomebrewで行うことが可能ですが、現在のところ詳しいリリースノートは公開されていません。

                        OpenAI、重要なアップデートを含んだ「ChatGPT for Mac v1.2024.134」をリリース。
                      • OpenAI's Rules for Model Behavior, Better Brain-Controlled Robots, and more

                        Dear friends, In the last couple of days, Google announced a doubling of Gemini Pro 1.5's input context window from 1 million to 2 million tokens, and OpenAI released GPT-4o, which generates tokens 2x faster and 50% cheaper than GPT-4 Turbo and natively accepts and generates multimodal tokens. I view these developments as the latest in an 18-month trend. Given the improvements we've seen, best pra

                          OpenAI's Rules for Model Behavior, Better Brain-Controlled Robots, and more
                        • アルトマン更迭した「OpenAI幹部」結局退職の経緯

                          OpenAIの共同設立者でありチーフ・サイエンティストであるイリヤ・サツキバーは、11月に他の3人の取締役とともに、同社の知名度の高いCEOであったサム・アルトマンを追い出し、その後その動きを後悔していると語っていたが、結局サンフランシスコのAI企業を去ることになった。 最後まで「復職」することはなかった 同社が5月15日にブログ投稿で発表したサツキバーの退社は、シリコンバレーを驚かせ、アルトマンと彼の会社がAI時代へとテック業界を導く準備ができているかどうか疑問を投げかけたストーリーの新たな章を閉じるものだ。 更迭からわずか5日後にOpenAIに復帰したアルトマンは、再び主導権を握り、ますます強力なテクノロジーへの取り組みを続ける中で批判的な意見もあった。サツキバーもOpenAIの従業員として残ったが、復職することはなかった。 「今日は私たち全員にとって感慨深い日だ」とアルトマンはインタ

                            アルトマン更迭した「OpenAI幹部」結局退職の経緯
                          • GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita

                            回答の詳細は以下です。 GPT-4o 1回目 ハッピー数とは、各桁の数を2乗してその和を求めることを繰り返し、その結果が最終的に1になるような数のことを指します。それ以外はアンハッピー数と呼ばれます。 3904から3912までの数を順に調べていきましょう。 3904 3² + 9² + 0² + 4² = 9 + 81 + 0 + 16 = 106 1² + 0² + 6² = 1 + 0 + 36 = 37 3² + 7² = 9 + 49 = 58 5² + 8² = 25 + 64 = 89 8² + 9² = 64 + 81 = 145 1² + 4² + 5² = 1 + 16 + 25 = 42 4² + 2² = 16 + 4 = 20 2² + 0² = 4 + 0 = 4 4² = 16 1² + 6² = 1 + 36 = 37 (以下ループ) 3904はハッピー数では

                              GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita
                            • OpenAIでアルトマンCEO解任騒動の首謀者の1人で共同創業者のサツケバー氏が退社へ

                              米OpenAIは5月14日(現地時間)、共同創業者でチーフサイエンティストを務めるイリヤ・サツケバー氏(38)が退社すると発表した。後任は、主任研究員のヤクブ・パチョッキ氏。 サツケバー氏は、米Googleのリサーチサイエンティストを約3年務めた後、2015年にサム・アルトマン氏、イーロン・マスク氏らとともにOpenAIの立ち上げに参加し、2018年からチーフサイエンティストを務めてきた。 グレッグ・ブロックマン社長によると、サツケバー氏は昨年11月に突如発生したアルトマンCEOの解任騒動の中心的人物の1人。アルトマンCEOの復帰後もチールサイエンティストとして在任していたが、表立った発表などには参加していなかった。13日の「GPT-4o」の発表イベントにも登壇していない。 アルトマン氏は公式ブログで「イリヤ(サツケバー氏)は間違いなく私たちの世代で最も偉大な頭脳の1人であり、私たちの分野

                                OpenAIでアルトマンCEO解任騒動の首謀者の1人で共同創業者のサツケバー氏が退社へ
                              • OpenAI、共同創業者サツキバー氏が退社 AI研究主導 - 日本経済新聞

                                【シリコンバレー=山田遼太郎】米新興企業オープンAIは14日、チーフサイエンティストで共同創業者でもあるイリヤ・サツキバー氏が退社すると発表した。同氏は人工知能(AI)の有力な研究者だ。同社が生成AI分野をけん引する企業になる上で重要な役割を担った。中核人材の流出は今後の研究に痛手となる可能性がある。2023年11月に起きたサム・アルトマン最高経営責任者(CEO)の解任騒動では、当時のオープン

                                  OpenAI、共同創業者サツキバー氏が退社 AI研究主導 - 日本経済新聞
                                • Google、テキストや画像から動画を生成するAI「Veo」発表 OpenAIの「Sora」対抗

                                  マスク編集機能もあり、動画とテキストプロンプトにマスク領域を追加し、動画の特定の領域を変更することができる。 また、テキストではなく画像を入力して動画を生成することもできるマルチモーダルだ。画像をテキストと組み合わせてプロンプトに入力することで、Veoは画像のスタイルを参照した動画を生成する。 Googleは、将来的にはVeoの機能の一部をYouTubeショートなどにも導入する計画だ。 関連記事 Androidに“Google AI”の新機能 OSにGeminiを統合、「かこって検索」で問題を解く機能など 米Googleが、Android向けに搭載するAI関連の新機能を発表した。特定の部分を丸で囲って検索ができる「かこって検索」を、学習に活用できるようにする。Androidに生成AIモデルの「Gemini」を統合し、アプリ上のオーバーレイ表示から、より簡単にGeminiを利用可能になる。

                                    Google、テキストや画像から動画を生成するAI「Veo」発表 OpenAIの「Sora」対抗
                                  • OpenAIの主任研究員でサム・アルトマンCEO解任を主導したイルヤ・サツキヴァー氏が退職

                                    OpenAIの共同創設者兼主任研究員で、2023年11月に起こったサム・アルトマンCEO解任騒動を主導したといわれるイルヤ・サツキヴァー氏がOpenAIを退職することを発表しました。 OpenAI chief scientist Ilya Sutskever is officially leaving - The Verge https://www.theverge.com/2024/5/14/24156920/openai-chief-scientist-ilya-sutskever-leaves 2023年11月17日にOpenAIが突然、アルトマンCEOの退任および退社を発表しました。この電撃解任騒動はアルトマンCEOとOpenAIの取締役会の対立によって起こったとみられており、特にアルトマンCEOの解任を主導したのが取締役の1人であったサツキヴァー氏だったことが報じられました。 O

                                      OpenAIの主任研究員でサム・アルトマンCEO解任を主導したイルヤ・サツキヴァー氏が退職
                                    • OpenAIのAIモデル「GPT-4o」がチェスパズルで従来モデルの2倍以上の好成績をたたき出しランキングトップに

                                      OpenAIは日本時間の2024年5月14日、新たなAIモデルである「GPT-4o」を発表しました。テキストや音声、視覚情報を高速で処理してリアルタイムな応答が可能で、一般的なチャットAIが苦手とする計算問題にも優れた性能を発揮するGPT-4oが、チェスパズルでも「GPT-4」の倍以上の好成績をたたき出したことが明らかになりました。 GitHub - kagisearch/llm-chess-puzzles: Benchmark LLM reasoning capability by solving chess puzzles. https://github.com/kagisearch/llm-chess-puzzles 2024年4月、チャットボットの能力をバトル形式で比較評価する「Chatbot Arena」というウェブサイトに、「gpt2-chatbot」というモデルが突如として追

                                        OpenAIのAIモデル「GPT-4o」がチェスパズルで従来モデルの2倍以上の好成績をたたき出しランキングトップに
                                      • 新ChatGPTは「感情も理解」、自然な振る舞い可能に OpenAIの次の一手

                                        ChatGPTがさらなる進化を遂げた。米オープンAIの次の一手は音声によるリアルタイムの対話。人間の感情すら理解したかのように振る舞うChatGPTは、生成AIの競争軸が次のフェーズに入ったことを示している。 オープンAIが米国時間5月13日に発表したのは、次世代AI(人工知能)モデルである「GPT-4o」。現行モデル「GPT-4 ターボ」の後継となるフラッグシップモデルだ。GPT-4oの「o」は、「全て」を意味する接頭語「オムニ(Omni)」に由来する。テキストや音声、画像などのあらゆる組み合わせを入力として受け入れ、出力できる。 オープンAIがオンライン発表会で特に強調したのは、音声による対話性能の向上だった。GPT-4など従来のモデルを利用した「ChatGPT」でも音声モードは可能だったが、待ち時間に課題があった。待ち時間は平均でGPT-3.5では2.8秒、GPT-4では5.4秒だっ

                                          新ChatGPTは「感情も理解」、自然な振る舞い可能に OpenAIの次の一手
                                        • OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されており、現在のところmacOS 14 Sonoma以降のApple Silicon Macにのみ対応。

                                          OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されているそうです。詳細は以下から。 OpenAIは現地時間2024年05月13日、スマートフォンのカメラやマイクを通し状況を把握、反応速度を向上させ、より人間らしい対話が可能になった最新のAIモデル「GPT-4o」を発表しましたが、同時に現在iPhoneとAndroid向けにリリースされているモバイルアプリだけではなく、 今後、MacとWindowsに対応したデスクトップアプリのリリースされることが発表され、本日よりChatGPT Plusユーザーに対し、ChatGPT for Macアプリのロールアウトが開始されていますが、このChatGPT for MacアプリはmacOSネイティブアプリとなっているそうです。 ChatGPT for Mac

                                            OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されており、現在のところmacOS 14 Sonoma以降のApple Silicon Macにのみ対応。
                                          • OpenAI、ChatGPTのMacアプリ公開。Macのカメラやスクショ、写真ライブラリにもアクセスし音声対話可能 | テクノエッジ TechnoEdge

                                            OpenAIは5月14日、ChatGPTのGPT-4oを使えるマルチモーダルなMacアプリを公開しました。chat.openai.comにアクセスしてダウンロードリンクが表示されれば利用できます(現在利用できるユーザーはPlusプランの購読者のみ)。ChatGPTアプリはこれでiPhone、Androidに続いてMac版が公開されたことになります。Windows版は年内に登場予定です。 機能としてはiPhoneアプリと同様で、現状ではGPT-4oの音声モデルや、カメラの映像を見ながら音声で対話したりといったことはできません。使われている音声モデルも、従来のものと同じで、遮られても会話をスムーズに続けたりといった機能は実装されていません。歌うこともできません。

                                              OpenAI、ChatGPTのMacアプリ公開。Macのカメラやスクショ、写真ライブラリにもアクセスし音声対話可能 | テクノエッジ TechnoEdge
                                            • OpenAI「GPT-4o」が変えるビジネス・暮らし 音声AIに飛躍 - 日本経済新聞

                                              米オープンAIが13日に発表した最新の生成AI(人工知能)「GPT-4o(フォーオー)」は、ヒトと機械が音声で自然に対話する時代の到来を印象づけた。オープンAIの発表からは、3つの技術進化が読み取れる。GPT-4oはヒトとコンピューターの接点を「文字」から「音声」に変える潜在力を秘める。暮らしやビジネスの現場でのAI利用にも大きな変化をもたらしそうだ。①豊かな感情表現「少し緊張しているんだ。

                                                OpenAI「GPT-4o」が変えるビジネス・暮らし 音声AIに飛躍 - 日本経済新聞
                                              • OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に

                                                小林 優多郎 [Tech Insider 編集チーフ] May. 14, 2024, 08:30 AM テックニュース 17,073 OpenAIは5月13日(現地時間)、新しい対話型生成AIサービス「GPT-4o」を発表した。 GPT-4oは有料版「ChatGPT Plus」や「ChatGPT Team」のユーザー向けに展開を開始しており、今後エンタープライズ向けにも提供予定。 無料版ChatGPTユーザーに対しても、1日で利用できるメッセージの数に制限をつけつつも展開する(OpenAIによるとPlusユーザーのメッセージ送信可能数は無料版の5倍でTeamsやエンタープライズ版はそれ以上)。 GPT-4oとは何なのか。また、そのGPT-4oの上で走らせたOpenAIの驚きのデモの様子を振り返りつつ解説しよう。

                                                  OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に
                                                • OpenAIが新AIモデル「GPT-4o」を発表

                                                  OpenAIはこのほど、同社製AIモデルの最新版となる「GPT-4o」の発表を行った。 テキストや音声、画像などの入力に対応した生成AIモデルで、英語のテキスト/コードを用いた場合には GPT-4 Turboに匹敵するパフォーマンスを実現した他、英語以外の言語テキストの大幅な改善も行われている。 既存のモデルと比較して視覚/音声の理解に優れているのも特徴で、APIベースではGPT-4 Turbo比で2倍高速で50%安価に利用可能だとしている。 関連記事 OpenAI、画像生成AI「DALL-E」に部分編集機能を追加 OpenAIは、同社提供の画像生成AI「DALL-E」に部分編集機能を追加した。 ChatGPTがログインなしで利用可能に OpenAIは、同社提供AIチャットサービス「ChatGPT」をアカウントなしでも利用できるよう変更を行った。 OpenAI、カスタム版ChatGPTを公

                                                    OpenAIが新AIモデル「GPT-4o」を発表
                                                  • OpenAIのGPT-4oを日本語OCRとして使ってみる

                                                    昨日、OpenAIが生成AIの新しいモデルであるGPT-4oを発表しました。消費するトークン数の節約や、音声合成機能の改善、応答速度の向上など着実な品質改善を見せているようです。私も、特に音声合成(Text To Speech)の表現力について非常に興味を持っています。 私は以前、「OpenAIのGPT-4 Turbo with visionを日本語OCRとして使ってみる」で、GPT-4 Turboの画像認識機能の日本語OCRについて検証を行いました。その当時は、既存のコグニティブAI APIに比べて認識精度が十分でないという評価をしています。とはいえ、その後に出てきたClaude 3 Opusは驚くべき認識精度だったので、OpenAIも巻き返す可能性は十分にあると感じました。Azure OpenAI Serviceを使っている場合は、Vision enhancementという既存のコグニ

                                                      OpenAIのGPT-4oを日本語OCRとして使ってみる
                                                    • OpenAI、大規模言語モデル「GPT-4o」発表

                                                        OpenAI、大規模言語モデル「GPT-4o」発表
                                                      • OpenAIが「GPT-4o」を発表、人間と同等の速さでテキスト・音声・カメラ入力を処理可能で「周囲を見渡して状況判断」「数学の解き方を教える」「AI同士で会話して作曲」など多様な操作を実行可能

                                                        OpenAIが日本時間の2024年5月14日(火)にAIモデル「GPT-4o」を発表しました。GPT-4oは単一のモデルでテキスト、音声、視覚入力を非常に高速に処理可能で、リアルタイムに会話しながら「計算問題を解く」「画像の生成」「周囲の映像から状況を判断」といったタスクを実行可能です。 Hello GPT-4o | OpenAI https://openai.com/index/hello-gpt-4o/ Introducing GPT-4o and more tools to ChatGPT free users | OpenAI https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/ GPT-4oはテキスト、音声、視覚入力を高速処理できるマルチモーダルなAIモデルです。GPT-4oの応答時間は平均320ミリ秒で、

                                                          OpenAIが「GPT-4o」を発表、人間と同等の速さでテキスト・音声・カメラ入力を処理可能で「周囲を見渡して状況判断」「数学の解き方を教える」「AI同士で会話して作曲」など多様な操作を実行可能
                                                        • OpenAI、「GPT-4o」を発表、2倍速く、50%安く、~テキスト・音声・画像すべてを理解/新しい「ChatGPT」アプリも、Windows版は今年後半リリース予定

                                                            OpenAI、「GPT-4o」を発表、2倍速く、50%安く、~テキスト・音声・画像すべてを理解/新しい「ChatGPT」アプリも、Windows版は今年後半リリース予定
                                                          • 忙しい方向け OpenAI 発表まとめ|ぬこぬこ

                                                            tl;drGPT-4o:モデルの性能↑速度↑価格↓(o は omni の頭文字) 文章、音声、画像すべての能力がアプデ 入力:文章、音声、画像、動画(フレーム) 出力:文章、音声、画像、3D モデル 音声対話中に割り込み可、応答速度↑(話す速度も変更可) MacOS デスクトップアプリが登場(Windows は今年後半) ショートカットキー(Option + Space)より呼び出して質問 音声で対話できるように(将来的には音声・動画入力可能に) MacOS アプリは Plus ユーザのみ本日以降順に使えるようになる(使う方法が出回っていますが、プロキシいじったりするので個人的には非推奨。待ちましょう。) 課金ユーザが今まで使えていた機能の一部が無料で使えるように GPTs(作成はできない)、検索を踏まえた回答、データ分析やグラフの作成、画像の入力に対して会話、ファイルのアップロードなど

                                                              忙しい方向け OpenAI 発表まとめ|ぬこぬこ
                                                            • 【📍完全版】世界が震撼したOpenAI最新アップデートまとめ《GPT-4o、デスクトップアプリ、音声会話》|チャエン | 重要AIニュースを毎日発信⚡️

                                                              We’ll be streaming live on https://t.co/OcO6MLUYGH at 10AM PT Monday, May 13 to demo some ChatGPT and GPT-4 updates. — OpenAI (@OpenAI) May 10, 2024

                                                                【📍完全版】世界が震撼したOpenAI最新アップデートまとめ《GPT-4o、デスクトップアプリ、音声会話》|チャエン | 重要AIニュースを毎日発信⚡️
                                                              • Introduction to gpt-4o | OpenAI Cookbook

                                                                GPT-4o ("o" for "omni") is designed to handle a combination of text, audio, and video inputs, and can generate outputs in text, audio, and image formats. Background Before GPT-4o, users could interact with ChatGPT using Voice Mode, which operated with three separate models. GPT-4o will integrate these capabilities into a single model that's trained across text, vision, and audio. This unified appr

                                                                  Introduction to gpt-4o | OpenAI Cookbook
                                                                • OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                                                  本日、OpenAIの最高技術責任者(CTO)であるMira Murati(ミラ・ムラティ)氏は、Spring Updatesイベントで、新しい強力なマルチモーダル基礎大規模言語モデル(LLM)であるGPT-4o(GPT-4 Omniの略)を発表した。これは今後数週間で全ての無料ChatGPTユーザーに提供され、MacOS用のChatGPTデスクトップアプリ(後にWindows向けも)も発表された。これにより、ユーザーはウェブやモバイルアプリ外でもアクセス可能になる。 「GPT-4oは音声、テキスト、ビジョンを統合して推論する」とMurati氏は述べた。これは、ChatGPTスマートフォンアプリでユーザーが撮影したリアルタイム動画を受け入れ分析する機能も含まれるが、この機能はまだ一般公開されていない。 「まるで魔法のよう。素晴らしいことですが、私たちはその神秘性を取り除き、みなさんにそれを試

                                                                    OpenAI が新たな無料モデル GPT-4o とデスクトップ版 ChatGPT を発表ーーアプリはまるで人間と会話するような反応速度に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                                                                  • Introducing GPT-4o: OpenAI’s new flagship multimodal model now in preview on Azure | Microsoft Azure Blog

                                                                    Explore Azure Get to know Azure Discover secure, future-ready cloud solutions—on-premises, hybrid, multicloud, or at the edge Global infrastructure Learn about sustainable, trusted cloud infrastructure with more regions than any other provider Cloud economics Build your business case for the cloud with key financial and technical guidance from Azure Customer enablement Plan a clear path forward fo

                                                                      Introducing GPT-4o: OpenAI’s new flagship multimodal model now in preview on Azure | Microsoft Azure Blog
                                                                    • OpenAI、macOS向けのChatGPTデスクトップアプリを発表。本日よりChatGPT Plusユーザーにロールアウトが開始。

                                                                      OpenAIがmacOS向けのChatGPTデスクトップアプリを発表しています。詳細は以下から。 OpenAIは現地時間2024年05月13日、GPT-4モデルをアップデートし、撮影した画像などをもとに数ミリ秒の応答で会話できるAIモデル「GPT-4o」を発表するとともに、MacとWindowsユーザーに対しOpenAIの公式ChatGPTデスクトップアプリをリリースすると発表しています。 For both free and paid users, we’re also launching a new ChatGPT desktop app for macOS that is designed to integrate seamlessly into anything you’re doing on your computer. With a simple keyboard shortcu

                                                                        OpenAI、macOS向けのChatGPTデスクトップアプリを発表。本日よりChatGPT Plusユーザーにロールアウトが開始。
                                                                      • 【超速報】OpenAIが最強・最安の「新GPT」を発表した

                                                                        先週末、ChatGPTを展開するOpenAIが「新しい発表をするよ」とX(旧ツイッター)上に投稿したことで、AI界の話題はGPTで持ち切りになり、誰もがライブ発表を正座して待った。

                                                                          【超速報】OpenAIが最強・最安の「新GPT」を発表した
                                                                        • OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞

                                                                          【シリコンバレー=渡辺直樹】対話型AI(人工知能)「Chat(チャット)GPT」を手がける米新興企業のオープンAIは13日、新型AI「GPT-4o(フォーオー)」を開発したと発表した。従来に比べて処理スピードを2倍に高速化した一方、運用コストを半減した。声で話しかけると、ヒトと同じ反応速度で会話ができる。弱点だった反応の遅延を克服し、AIの活用がさらに広がりそうだ。生成AIはオープンAI以外の

                                                                            OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞
                                                                          • OpenAI、次世代AIモデル「GPT-4o」を発表

                                                                            日本時間2024年5月14日未明、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました。このモデルは、音声、視覚、テキストのリアルタイム処理を可能とし、従来のAIモデルを大きく上回る性能を誇ります。OpenAIのCTOであるミラ・ムクティ氏は、「GPT-4oは、人間とマシンのインタラクションの未来を大きく変える一歩です。このモデルにより、コラボレーションがはるかに自然で簡単になります」と述べました。 「GPT-4o」の主な特徴を以下にまとめました。 他のモデルを凌駕する性能 GPT-4oは、OpenAIの以前のモデルであるGPT-4 Turboや、ライバル会社のClaude 3 Opusなどの大規模言語モデルと比較して、頭ひとつ抜けた性能向上を実現しました。サム・アルトマンCEOは、今年4月に "Chatbot Arena" でgpt2というコードネームでテストされていた

                                                                              OpenAI、次世代AIモデル「GPT-4o」を発表
                                                                            • OpenAI、ChatGPTの新バージョン「GPT-4o」を発表。無料ユーザー向けにも提供、感情豊かな音声で応答、歌いながら回答も | テクノエッジ TechnoEdge

                                                                              OpenAIは5月13日(米国時間)、オンラインでSpring Updateイベントを開催。その中で、フラグシップとなる大規模言語モデル「GPT-4o」を発表しました。 APIでの提供も行い、現行最新モデルのGPT-4 Turboと比べて2倍高速、価格は50%安価に、レートリミットは5倍に拡張されています。 GPT-4oはオーディオ、ビジョンを統合したマルチモーダルLLMで、強力なボイスモードを搭載。イベントで行ったライブデモでは音声で感情豊かに澱みなく回答。ユーザーからの割り込みにも柔軟に対応し、歌いながら答えたり、モバイルChatGPTアプリで英語とイタリア語が混在した会話の通訳をしたり、MacBookで動いているデスクトップ版ChatGPTアプリで画面内のコードやグラフを読み取って分析したりしてみせました。 ▲iPhone版ChatGPTアプリでカメラに映した手書きの数式を見せながら

                                                                                OpenAI、ChatGPTの新バージョン「GPT-4o」を発表。無料ユーザー向けにも提供、感情豊かな音声で応答、歌いながら回答も | テクノエッジ TechnoEdge
                                                                              • OpenAI、処理が爆速で人間相手のように会話できる「GPT-4o」

                                                                                生成AI大手OpenAIは5月13日(現地時間)、文字、音声、映像の入力からリアルタイムに推論ができて、まるで人間相手のように自然に会話できる最上位のLLM「GPT-4o(オー)」を発表した。今後数週間以内にChatGPTで使えるようになる。無料ユーザーも回数制限つきで利用できる。有料ユーザーは無料ユーザーの最大5倍利用可能。oは“オムニ”の略。 推論性能は他社モデルと比べてもトップクラス。音声入力の応答時間は最速232ミリ秒で、会話中の人間の応答時間と似ているという。APIとしては、旧来のモデルである「GPT-4 Turbo」に比べても処理が2倍早く、さらに料金が50%安く、レート制限は5倍になる。 文字、映像、音声を含むすべての入力と出力を、同じニューラルネットワークが処理する仕組みになっているのが特徴。旧来モデルのGPT-4より情報の損失が少なく、声のトーン、複数の話者、背景音なども

                                                                                  OpenAI、処理が爆速で人間相手のように会話できる「GPT-4o」
                                                                                • 新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報

                                                                                  『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者の布留川氏は、登壇時点までのOpenAIの最新情報と、最新技術情報のキャッチアップ術について話しました。全4回。 布留川氏の自己紹介 布留川英一氏:それでは始めます。OpenAI本出版記念として、今日は「OpenAI最新技術情報と技術情報キャッチアップ術」について話そうと思います。 最初に簡単に自己紹介をします。名前は布留川英一と申します。ハンドルネームはnpakaでやっています。株式会社ゼルペムに所属していますが、基本は個人でやっているようなものです。 プログラム歴は40年と言っていますが、1984年の「ファミリーベーシック」みたいなものから始めたので、ちょうど40年ということでキリがいい数字でした。インターネット歴は大学に入った1994年からなので、ちょうど30年です。 技術書歴は、最初に書いた

                                                                                    新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報