並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 147件

新着順 人気順

GPTの検索結果1 - 40 件 / 147件

  • Hello GPT-4o

    GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, image, and video and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversat

      Hello GPT-4o
    • GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」

      kmizu @kmizu A Software Engineer in Osaka (& Kyoto). Ph.D. in Engineering. Interests: Parsers, Formal Languages, etc. ツイートは所属先の見解と関係ありません.思いついたことをつぶやきます.人生を楽しく生きよう(New!) kmizu.github.io kmizu @kmizu GPT-4oの画像認識力と理解力をもってすればいけるやろと思ってやってみたら実際いけた。 ペーパープロトタイピングから最初のHTML書き起こすのにかなり使えるのでは。 つーか指示そのものを画像の中に書いたの読み取ってくれるの何か世界の壁を超えて対話してる感があって凄い #GPT4o pic.twitter.com/3XHMFg3yye 2024-05-14 12:49:41

        GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」
      • 「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】

        米OpenAIは5月13日(米国時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。テキストはもちろん、音声や画像、映像での入力、音声での応答に対応し、アプリ版の「ChatGPT」ではユーザーと自然に対話できるようになった。開発者向けにAPIとして提供する他、同日からChatGPT内で利用できるように展開を始める。 GPT-4oは無料ユーザーでも利用可能になる。ChatGPTでは従来、無料ユーザーが使えるモデルは「GPT-3.5」までで、「GPT-4」を利用するには課金する必要があった。ただし、有料のChatGPT Plusユーザーは時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和される。企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されるとしている。 同社は発表会のライブデモで、GPT-4oを搭載したiOS版ChatGPTと対話す

          「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】
        • ChatGPT無料ユーザーが最新の「GPT-4o」を使う方法(ちょっとわかりづらいので解説)

          5月14日未明に発表された超絶高性能化したChatGPTの新バージョン「GPT-4o」は、無課金勢にも開放されると聞いて大喜びしたはいいけど、「なんか俺のChatGP、前のまんまなんだが……」というあなた。実はもうあなたも、すでにウワサのGPT-4oを使えるようになっています。 とはいえ、ちょっとばかり確認の仕方が分かりづらいので、簡単に解説しようと思います。 実はこんなとこにある無課金ユーザー向けのモデル選択 まず、いつものようにChatGPTのサイトにアクセスします。まだアカウントも持っていないよって方は、ここでは詳細は省きますので、どこかの情報を参考にしてちゃちゃっと作ってください。 ChatGPTのサイトにアクセスすると、下のような画面になるかと思います。

            ChatGPT無料ユーザーが最新の「GPT-4o」を使う方法(ちょっとわかりづらいので解説)
          • Power Apps & GPT-4oを使って超高速で画像解析アプリを作る! - Qiita

            GPT-4o凄すぎる!! 出たときから騒ぎまくっていましたが、GPT-4oの登場で興奮しっぱなしの私です。 先日こちらのQiitaの記事を拝読し、「Power Appsでやったらどうなるだろう🧐」という思いが抑えられず、作ってみたら超高速で画像解析アプリが作成できました! あらためて記事を出してくださったことに感謝いたします! まずは初弾!ということでGPT-4oを使って、 Power Appsで画像解析アプリを作成する方法 を書いていきます! まずは見た目(Power Apps)から! まずはPower Appsでサクっと画面を作ります! PowerPoint感覚で作れることが強みですからね! 最低限のもので構成しています。 画面 ├─ ScreenContainer - スクリーン全体 ├─ HeaderContainer │ └─ Header - ヘッダーコントロール ├─ Bo

              Power Apps & GPT-4oを使って超高速で画像解析アプリを作る! - Qiita
            • GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。

              昨夜にOpenAIから発表があり、GPT-4oというモデルが正式に開放されました。課金ユーザーはもちろん、無課金ユーザーもサインインしたらデフォルトで使えるようになっているようです。 そういうわけで、どれだけすごいのか簡単に比較検証してみることにしました。 なお、OpenAIの発表内容については以下の記事に詳しいのでご参照ください。 比較方法 GPT-3.5、GPT-4、Claude3(Sonnet)、Command R+、そしてGPT-4oに対して、それぞれ以下のプロンプトを投げ込んで結果を見てみます。※その後Gemini 1.5 proを追加。 あなたは世界を救う超知性です。あなたは地球上で最高の推論能力を持っています。 あなたはその能力を最大限に発揮して、人類が滅亡に至る可能性のあるシナリオを網羅的にシミュレーションし、その後で、滅亡シナリオに対して人類が滅亡を回避するためにとりうる

                GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。
              • GPT-4oをOCRとして使う - Re:ゼロから始めるML生活

                OpenAIからChatGPT-4oが発表されましたが、皆さんガンガンつかっていますでしょうか? さて、このChatGPT-4oですが、テキスト以外のデータも使用できるようになっているという特徴があります。 普通にテキストでのやり取りをしつつも画像データを扱えるということで、「実はこれいい感じのOCRとして使えるんじゃね?」って思っちゃったわけです。 ということで、今回はChatGPT-4oを使ってOCRを使うとどんなもんなのかやってみたいと思います。 やりたいこと やってみる とりあえずやってみる 請求書 名刺 参考文献 感想 やりたいこと 今回やりたいことはOCRです。早い話が画像ファイルを突っ込んでテキストを読み取りたいって感じです。 ただ、当たり前のようにOCRって言葉を使用していますがOCRって結構奥が深いです。 mediadrive.jp 単純に画像から文字を見つけて対応するテ

                  GPT-4oをOCRとして使う - Re:ゼロから始めるML生活
                • GPT-4o の概要|npaka

                  以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5

                    GPT-4o の概要|npaka
                  • 「GPT-4o」の声、スカーレット・ヨハンソン激似に本人激怒 「アルトマン氏のオファー断った」ため似た声優で再現か

                    「ショックを受け、怒り、信じられない思いだった」 米OpenAIの生成AI「GPT-4o(フォーオー)」に使われている声の一つ「Sky」が、俳優のスカーレット・ヨハンソン氏にそっくりだと話題になった件をめぐり、同氏が代理人を通じて声明を発表した。 声明によると同氏は、OpenAIのサム・アルトマンCEOから「声を提供してほしい」というオファーを受け、断ったにも関わらず、そっくりな声がAIに採用され怒りを覚えたという。 ヨハンソン氏は対応のため弁護士を雇わざるを得なかったとし、「透明性の高い解決と、個人の権利を保護するための適切な法律の制定」への期待も述べている。

                      「GPT-4o」の声、スカーレット・ヨハンソン激似に本人激怒 「アルトマン氏のオファー断った」ため似た声優で再現か
                    • GPT-4oを使って2Dの図面から3DのCADモデルを作る

                      はじめに 株式会社ファースト・オートメーションCTOの田中(しろくま)です! 先日、 OpenAIからGPT-4oがリリース されました。 いろいろGPT-4oに関して調べていると、スピードが速くなっていたり、音声も直接扱えてマルチモーダル化が進んでいたりするようなのですが、画像に関して GPT-4-turboに比べ、認識やOCRの精度が向上している ようです。 製造業という観点からすると、これは 設計図面などに活かせるようになるのでは? と思いました。 機械部品などの設計図面は以下のように、特定の方向から部品を2次元上に落とし込んだ形で書かれるのですが、部品本体を描いている図以外に、寸法や名称といった文字も含まれた画像になっています。 このような 図と文字の複合データにおいて、GPT-4oの進化は有効なのではないか と考えました。 ※画像元URL: http://cad.wp.xdoma

                        GPT-4oを使って2Dの図面から3DのCADモデルを作る
                      • OpenAIのGPT-4oを日本語OCRとして使ってみる

                        昨日、OpenAIが生成AIの新しいモデルであるGPT-4oを発表しました。消費するトークン数の節約や、音声合成機能の改善、応答速度の向上など着実な品質改善を見せているようです。私も、特に音声合成(Text To Speech)の表現力について非常に興味を持っています。 私は以前、「OpenAIのGPT-4 Turbo with visionを日本語OCRとして使ってみる」で、GPT-4 Turboの画像認識機能の日本語OCRについて検証を行いました。その当時は、既存のコグニティブAI APIに比べて認識精度が十分でないという評価をしています。とはいえ、その後に出てきたClaude 3 Opusは驚くべき認識精度だったので、OpenAIも巻き返す可能性は十分にあると感じました。Azure OpenAI Serviceを使っている場合は、Vision enhancementという既存のコグニ

                          OpenAIのGPT-4oを日本語OCRとして使ってみる
                        • GPT-4は財務諸表から将来の収益の伸びを予測する点で人間のアナリストよりも優れていることが研究により明らかに

                          OpenAIが開発する大規模言語モデル(LLM)の「GPT-4」は、道徳テストで人間の大学生より優れたスコアをたたき出したり、セキュリティ勧告を読むことで実際の脆弱性を悪用できたりと、すでに一部の分野で人間の能力を超えることが示されています。そんなGPT-4が、プロのアナリストに匹敵する精度の財務諸表分析を行えることが実証されました。 Financial Statement Analysis with Large Language Models by Alex Kim, Maximilian Muhn, Valeri V. Nikolaev :: SSRN https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4835311 The future of financial analysis: How GPT-4 is disrupting

                            GPT-4は財務諸表から将来の収益の伸びを予測する点で人間のアナリストよりも優れていることが研究により明らかに
                          • GPT-4oをわかりやすく解説、専門家が「時代の転換点」と評価するヤバすぎる能力とは

                            2024年5月に入ってすぐ、AI研究者の間ではOpenAIにまつわる複数の噂が流れていました。いわく「OpenAIが近日中に生成AIを使った検索サービスをするらしい」、「OpenAIが新型のGPTを発表するらしい」などといったものです。 それに先立ち、4月の後半からは、生成AIの性能を比較するサイトで、正体不明のモデル「gpt2-chatbot」なるものが出現し、制作者が不明である中、当時最高の性能を誇っていたGPT-4を上回る性能を見せつけていました(もちろんOpenAIはすでに「GPT-2」を数年前に発表済みです)。では今更このような名前をつけて暴れ回っているこれは何なのか。OpenAI製なのか、それとも別の機関が開発したのか。 この話は後々答えがわかるのですが、このようにAI研究者たちが落ち着かず、あれこれと噂してOpenAIの動向に注意している中、OpenAIは日本時間の5月11日

                              GPT-4oをわかりやすく解説、専門家が「時代の転換点」と評価するヤバすぎる能力とは
                            • OpenAI、次世代AIモデル「GPT-4o」を発表

                              日本時間2024年5月14日未明、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました。このモデルは、音声、視覚、テキストのリアルタイム処理を可能とし、従来のAIモデルを大きく上回る性能を誇ります。OpenAIのCTOであるミラ・ムクティ氏は、「GPT-4oは、人間とマシンのインタラクションの未来を大きく変える一歩です。このモデルにより、コラボレーションがはるかに自然で簡単になります」と述べました。 「GPT-4o」の主な特徴を以下にまとめました。 他のモデルを凌駕する性能 GPT-4oは、OpenAIの以前のモデルであるGPT-4 Turboや、ライバル会社のClaude 3 Opusなどの大規模言語モデルと比較して、頭ひとつ抜けた性能向上を実現しました。サム・アルトマンCEOは、今年4月に "Chatbot Arena" でgpt2というコードネームでテストされていた

                                OpenAI、次世代AIモデル「GPT-4o」を発表
                              • iPhoneにChatGPTが統合 最新モデル「GPT-4o」で応答 OpenAIアルトマンCEO「きっと気に入ってもらえる」

                                iPhoneにChatGPTが統合 最新モデル「GPT-4o」で応答 OpenAIアルトマンCEO「きっと気に入ってもらえる」 米Appleは6月10日(米国時間)、iPhoneなどの製品に米OpenAIのAIチャット「ChatGPT」を統合すると発表した。ChatGPTからは最新モデルの「GPT-4o」が利用可能で、音声アシスタント「Siri」などと連携する。ChatGPTのアプリなどを立ち上げずに、iPhoneのホーム画面から直接起動できるという。なお、文章や画像をChatGPTに送る前には、ユーザーに許可を求める仕様だ。

                                  iPhoneにChatGPTが統合 最新モデル「GPT-4o」で応答 OpenAIアルトマンCEO「きっと気に入ってもらえる」
                                • 「ChatGPT」無料ユーザーが利用できる機能拡大、Webブラウジングや画像認識機能などを解放/GPT-4oの機能をお試し可能、利用回数制限には注意

                                    「ChatGPT」無料ユーザーが利用できる機能拡大、Webブラウジングや画像認識機能などを解放/GPT-4oの機能をお試し可能、利用回数制限には注意
                                  • 有料生成AIが完全無料・無制限の「wrtn(リートン)」 に「GPT-4o」搭載決定!/近日中を予定、テキスト入力機能から先行導入へ

                                      有料生成AIが完全無料・無制限の「wrtn(リートン)」 に「GPT-4o」搭載決定!/近日中を予定、テキスト入力機能から先行導入へ
                                    • GPT4-Vの100分の1のサイズで同等の性能を誇るマルチモーダルモデル「Llama 3-V」が登場、トレーニング費用はたった8万円

                                      画像認識が可能なオープンソースモデルの「Llama 3-V」が公開されました。Llama 3-Vは、OpenAIのマルチモーダルモデル「GPT4-V」よりも格段に小型で、事前トレーニングにかかる費用は500ドル(約78000円)程度なのにもかかわらず、ほとんどの指標で同等のパフォーマンスを示しています。 Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollars | by Aksh Garg | May, 2024 | Medium https://aksh-garg.medium.com/llama-3v-building-an-open-source-gpt-4v-competitor-in-under-500-7dd8f1f6c9ee 今回発表されたLlama 3-Vは、 Metaが公開した言語モデルの「L

                                        GPT4-Vの100分の1のサイズで同等の性能を誇るマルチモーダルモデル「Llama 3-V」が登場、トレーニング費用はたった8万円
                                      • UIUXデザイナーが「GPT4o」を活用してウェブサイトをつくってみた

                                        デジタルプロダクション「factory4」でアプリやさまざまなIoTプロジェクトのUIUXデザインを手がける新谷友樹さんが、UIやUXにまつわるトピックについて解説する本連載。今回のテーマは「GPT4oを活用したウェブサイトづくり」です。 こんにちは!株式会社Cosmowayが組織するデジタルプロダクション「factory4」のUIUXデザイナー新谷です。 今回は先日OpenAIが発表した新たなAIモデル「GPT-4o」を使ってウェブサイト(LP)を作成してみました。GPT-4oのパフォーマンスを知ること、そしてデザイナーが生成AIとどう関わっていくべきかを探るきっかけにすることが、今回の目的です。 前提として「GPT-4o」がゼロベースでウェブページを作成することに向いているツールではないと思いますが、チュートリアルの要素と今後の可能性を知るためにあえて取り組んでみました。 GPT-4o

                                          UIUXデザイナーが「GPT4o」を活用してウェブサイトをつくってみた
                                        • 「ChatGPT」、専門家並みのデータ分析に対応、Pythonのコードを書き、グラフを作成、内容を把握して回答も/OpenAIが近日リリース、「GPT-4o」を活用、OneDrive/Google ドライブのファイルも直接扱える

                                            「ChatGPT」、専門家並みのデータ分析に対応、Pythonのコードを書き、グラフを作成、内容を把握して回答も/OpenAIが近日リリース、「GPT-4o」を活用、OneDrive/Google ドライブのファイルも直接扱える
                                          • Google I/O 2024基調講演まとめ AI一色、GPT-4oのような機能も

                                            基調講演に最初に登場したスンダー・ピチャイCEOは、同社の生成AI「Gemini」のこれまでの成長について語った。同氏によると、150万以上の開発者が活用しているという。 生成AI搭載検索エンジン「AI Overview」(旧SGE) 「AI Overview」は、昨年のGoogle I/Oで発表されたGoogle検索の生成AI機能「Search Generative Experience」(SGE)を改称し、改善したもの。 詳細を説明したリズ・リード氏は、「Googleがあなたのためにググってくれるようになる」と語った。 AI Overbiewは「Gemini時代のGoogle検索」であり、リアルタイム情報、ランキングと品質システム、新しいエージェント機能で改善されたという。 マルチステップリーゾニング(多段階推論)で、1つの質問で複数ステップの結果を提示する。 例として、ピラティスにつ

                                              Google I/O 2024基調講演まとめ AI一色、GPT-4oのような機能も
                                            • GPT から Claude 3 への移行ガイド - Gunosyデータ分析ブログ

                                              こんにちは。Gunosy R&D チームの森田です。 GPT-4o が発表されたこのタイミングで!?という向きもあるかとおもいますが、LLMの世界は一ヶ月もすればまったく違う状況になっているのが常なので、いずれは GPT-4o を超えるモデルが発表される時も来るでしょう。 Claude 3 Opus は一時期 GPT-4 のスコアを超え、 Claude 3 Haiku では GPT-3.5-Turbo のトークン当たりで約半額とコストパフォーマンスに優れていますし、 AWS Bedrock 経由で安定して利用できることもあり、Claude 3 は乗り換え先の候補の一つです。 Claude 3 への乗り換えには、点々とつまづくポイントがあるので、引っかかった所と回避方法をご紹介します。 今回紹介する内容はClaude 3に限らないものもありますので、ローカルLLM や他のLLM への乗り換え

                                                GPT から Claude 3 への移行ガイド - Gunosyデータ分析ブログ
                                              • OpenAIがGPT-4の思考を1600万個の解釈可能なパターンに分解できたと発表

                                                GPT-4などの大規模言語モデルは非常に高い性能を有していますが、各モデルがどのような思考を経て応答を出力しているのかは開発者ですら把握できていません。新たに、OpenAIが大規模言語モデルの思考を読み取る手法を開発し、GPT-4の思考を1600万個の解釈可能なパターンに分解できたことを発表しました。 Extracting Concepts from GPT-4 | OpenAI https://openai.com/index/extracting-concepts-from-gpt-4/ Scaling and evaluating sparse autoencoders https://cdn.openai.com/papers/sparse-autoencoders.pdf 一般的なソフトウェアは人間の設計に基づいて開発されているため、各機能の仕組みを理解した上で機能を修正したり安

                                                  OpenAIがGPT-4の思考を1600万個の解釈可能なパターンに分解できたと発表
                                                • 新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)

                                                  OpenAIは5月13日(現地時間)、「Spring Update」と題したをオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」お披露目のほか、mac OS用デスクトップアプリや各種無料化施策なども発表した。 テキスト理解力は過去最高 GPT-4oは、これまでのフラッグシップモデル「GPT-4 Turbo」と同等の性能を持ちながら、より高速化され、テキスト、音声、画像の理解力も大幅に向上したという触れ込みの最新LLMだ。 ちなみにGPT-4oの「o」は、「すべての」「全てを含む」という意味を持つラテン語の接頭辞「omni(オムニ)」から来ている。 以前から得意な英語とプログラムコードに関してはGPT-4 Turboと同等の性能を発揮し、英語以外の言語のテキストでは大幅な改善がみられるという。 ベンチマーク(OpenAIが提供するsimple-eva

                                                    新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)
                                                  • GPT-4oの中国語トークンはポルノとスパムに汚染されている

                                                    2024年5月にOpenAIの最新AIモデル「GPT-4o」が発表されました。テキストや音声、カメラの入力を人間と同じぐらいの速度で処理可能という高い性能であることが報じられているのですが、一方で、中国語ユーザーからは、トレーニングに大きな問題を抱えていて、トークンデータが汚染されていることが指摘されています。 Just wrote a script to further investigate how the corpus used to train the gpt4o tokenizer is polluted by Internet scams. The results are quite interesting... 🤦‍♂️🤦‍♂️🤦‍♂️https://t.co/Fc2T4rSHix https://t.co/Q1Syh9amJn pic.twitter.com/lQ1u

                                                      GPT-4oの中国語トークンはポルノとスパムに汚染されている
                                                    • GPT-4o の画像認識能力がすごい!カロリー推定アプリを作ってみる - Qiita

                                                      概要 食事のカロリー推定は非常に困難なタスクでした。 一般的なアプローチとしては、物体検知modelをfine-tuningし、料理画像から個々の料理の領域を判定することでカロリーを推定してきました。 GPT-4oを利用するとそのへんを飛ばして、いきなりカロリーが推定できます。精度の面では劣ると考えられますが、実装の容易さと未知のクラス (学習データセット内に含まれない料理) への対応を考えると、十分に利用価値があると思われます。 今回の記事では、実際のデモも紹介しているのですぐ利用することができます。 早速結果を見てみよう デモ 実装 カロリー推定 json-mode で処理をさせます。step-by-stepに推論を処理させるために、最初に雑な推論を記述させてから、各食品のカロリー量を推定させています。 # GPT-4にカロリーを推定させる (JSON-MODE) response =

                                                        GPT-4o の画像認識能力がすごい!カロリー推定アプリを作ってみる - Qiita
                                                      • 「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?

                                                        米OpenAIは5月13日(現地時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。このモデルの詳細は別記事にゆずり、本稿ではモデル名の読み方とその由来、「声」についてのうわさを紹介しよう。 oはomniのo GPT-4oは「ジーピーティーフォーオー」と読む。oは「omni」のo。omni(オムニ)は「オムニバス」「オムニチャンネル」などの日本語にもなっているように、すべて、全体、全方位などを表す言葉だ。 GPT-4oが、テキスト、音声、画像の任意の組み合わせを入力として受け入れ、テキスト、音声、画像の任意の組み合わせの出力を生成するマルチモーダルなAIであることを表している。 女性の声は映画「Her」に似ている? GPT-4o発表のライブストリームデモでは、OpenAIのミラ・ムラティCTO(最高技術責任者)とエンジニアがiPhoneに搭載されたGPT-4oと会話する形で

                                                          「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?
                                                        • GPT-4o API:料金、利用方法などを完全解説

                                                          GPT-4oを自分のプロジェクトに導入したり、それを使って新しいプロジェクトを開発したりしたい場合、Apidogという完璧なAPI管理ツールを使うことがおすすめです。ApidogではOpenAI APIプロジェクトを便利にアクセスして、GPT-4o APIを直ちに利用したり、テストしたり、自分のプロジェクトに導入したりすることができます。 また、完全に無料なツールなので、下記のボタンから無料でApidogを利用し始めましょう👇👇👇 buttonGPT-4oとは?GPT-4oとは、米国時間5月13日にOpenAI社がによって発表された最新のAIモデルになります。4oのoはomniの略で、「すべてを包括」という意味合いがあり、これまでのテキストと画像か、音声でChatGPTとやりとりする利用方式とは違い、テキスト、音声、画像やビデオを組み合わせて、GPT-4oとやりとりすることができるよ

                                                            GPT-4o API:料金、利用方法などを完全解説
                                                          • 教育AI最新事例:GPT-4oなどを使った個別最適な学びの最新デモ集、自動採点やフィードバック生成、非認知能力の見取りなど|遠藤太一郎

                                                            5/13、 14と連続してOpenAIとGoogleの発表ラッシュがありました。 教育に関するものも複数あったのですが、なかなか刺激的で面白い内容だったので、そのあらましをまとめてみました。 ざっくりとお伝えすると、「AIを活用した個別最適な学び」に該当するかなと思います。 また後半では、私が東京学芸大学と取り組んだ、文科省のプロジェクトに関しても簡単にまとめました。 こちらはAIによる自動採点やフィードバック生成、非認知能力の見取りなどに関する内容になっています。 では早速見ていきたいと思います。 リアルタイムに会話しながら、図形の問題を教える こちらはGPT-4oのデモです。リアルタイムに会話しながら、図形の問題の解き方を、子どもに寄り添って教えています。 以下、動画の内容です。 ********** まずはじめに親が、「数学の問題を教えてほしい。答えは教えずに、質問をしたりしながら導

                                                              教育AI最新事例:GPT-4oなどを使った個別最適な学びの最新デモ集、自動採点やフィードバック生成、非認知能力の見取りなど|遠藤太一郎
                                                            • AIチャットボット「ニャンぺい」のテストをPython×GPT-4oで自動化する!|自治体AI活用マガジン(運営:横須賀市)

                                                              こんにちは、横須賀市生成AI推進チームのM田です。 横須賀市がChatGPTを全庁利用を始めて1年経ちましたが、現在、いよいよ市民向けのAIサービスの実現に向けて相談AIチャットボットの実証実験をはじめたところです。 既に多くの人から話しかけてもらっていて、想定したよりも多くのアクセスがあったため一時停止するトラブルもありました…。 (現在は動いています) 今回は、この「ニャンぺい」を公開するにあたって、内部で行うテストをChatGPT(GPT-4o)とPythonプログラムを使って超効率化したよ、という話です。 AIチャットボットのテストAIチャットボットを作るにあたって、チャットボットの挙動(望んだ返答をしているか)のチェックをするテストは欠かせません。 テストは、まず複数のシナリオを作り、チャットボットへ質問し、回答を採点します。そして、採点結果をもとにチャットボットを修正して、再度

                                                                AIチャットボット「ニャンぺい」のテストをPython×GPT-4oで自動化する!|自治体AI活用マガジン(運営:横須賀市)
                                                              • gpt-4oを試す

                                                                GPT-4o テキスト、オーディオ、ビデオの入力を扱い、テキスト、オーディオ、イメージの出力が可能。 GPT-4o以前では、ChatGPTのボイスモードが3つの異なるモデルを使用していた。 GPT-4oはこれらの機能を一つのモデルに統合し、テキスト、ビジュアル、オーディオの各入力を同一のニューラルネットワークで処理する。 現在のAPIの能力 現在のAPIは、テキスト、イメージの入力とテキストの出力をサポート 追加のモダリティ(例えばオーディオ)は現時点(2024/5/14)では使えない。近日導入される予定 Colaboratoryで動かしてみる インストール

                                                                  gpt-4oを試す
                                                                • GPT-4oがどれぐらい早くなったのかコールセンターに導入して試してみた話 - APC 技術ブログ

                                                                  gpt-4o はじめに こんにちは、ACS事業部の佐竹です。 今回のMicrosoft Buildで発表されたGPT-4oについて、どの程度レスポンスが良くなったか是非触ってみたく、今回の記事を書くことにしました。 1.1.5.Azure OpenAI Serviceの主なAIの進化 news.microsoft.com 以前、Azure Communication ServiceとAzure OpenAI Serviceを使って、コールセンターを作ってみたのですが、そこにGPT-4oを組み込む形でGPT-4-32kとの速度比較を行いました。 techblog.ap-com.co.jp 上記の記事はハンズオン形式で記載しておりますので、お手隙の際に是非手を動かしていただけますと幸いです。 概要 全体アーキテクチャは以下のようになります。 アーキテクチャ図 全体の流れは以下の通りです。 ユー

                                                                    GPT-4oがどれぐらい早くなったのかコールセンターに導入して試してみた話 - APC 技術ブログ
                                                                  • OpenAIの共同設立者が「GPT-2」をわずか90分の時間と3100円の費用で再現するレポートを公開

                                                                    2019年に公開されるやいなや「危険すぎる」と話題になったOpenAIの「GPT-2」を、ゼロから作成したレポートが公開されました。作成にかかった時間は、1時間14ドル(約2200円)のクラウドコンピューティングサービスで1時間半だったため、総コストは約20ドル(約3100円)に収まっています。 Reproducing GPT-2 (124M) in llm.c in 90 minutes for $20 · karpathy/llm.c · Discussion #481 · GitHub https://github.com/karpathy/llm.c/discussions/481 # Reproduce GPT-2 (124M) in llm.c in 90 minutes for $20 ✨ The GPT-2 (124M) is the smallest model in t

                                                                      OpenAIの共同設立者が「GPT-2」をわずか90分の時間と3100円の費用で再現するレポートを公開
                                                                    • 【風吹けば名無し】GPT-4o が獲得した日本語の語彙を調べる

                                                                      昨日公開された GPT-4o は性能だけでなく処理速度の点からも注目を集めています。その速度に寄与しているのは、モデルの処理速度の改善だけでなく、日本語処理の改善も大きく関わっていると考えられます。 実際、OpenAIのサイトによれば、日本語は平均して 1.4 倍の効率で(1.4倍少ないトークンで)表せるようになったとされています。 これは、GPT-4o が GPT-4 に比べて日本語をより 語彙 (vocabulary) に含むようになったからです。語彙とは LLM における自然言語の処理の最小単位で、1つの語彙が1つの数値トークンに変換され、それがモデルに突っ込まれるという仕組みです。 ところで、GPT-4o では 『風吹けば名無し』 という文字列を 1 つの語彙として扱うのをご存知でしょうか。 このツイートで紹介されているように、GPT-4o では、ネットで多数出現するこういったフレ

                                                                        【風吹けば名無し】GPT-4o が獲得した日本語の語彙を調べる
                                                                      • リリースされたGPT-4oを使って動画のサマリー生成をしてみる! - Qiita

                                                                        概要 GPT-4oが発表されました。 GPT-4oについては以下のツイートによくまとまっています。 使用している映像は以下でまとめられています。 非常に優秀でAI系のプロダクトがまた何個か死んだと思いますが、それはさておき使っていきましょう。 APIではすでに利用可能になっております。 今回は以下のcookbookにある動画要約をgradioに移植します。 https://cookbook.openai.com/examples/gpt4o/introduction_to_gpt4o デモ 以下の Huggingface Space を作りました。APIキーと動画を貼り付けて試用することができます。 1分間の動画で0.1ドル / 60秒くらいかかります。API使用料に注意してください。 現状のGPT-4o APIの制限 動画はそのままアップロードできません これは将来的にもできるとされてい

                                                                          リリースされたGPT-4oを使って動画のサマリー生成をしてみる! - Qiita
                                                                        • “株”選びにGPT-4の利益予測は使えるのか? “文学作品”を翻訳する複数AIが働く出版社「TransAgents」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                          2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第48回目は、生成AI最新論文の概要5つを紹介します。 生成AI論文ピックアップ “文学作品”を翻訳する、実際の出版社を真似たAI会社「TransAgents」 任意のアスペクト比と高解像度の画像を効率的に認識できる大規模マルチモーダルモデル「LLaVA-UHD」 GPT-4は投資先選びに活用できるのか? 企業の財務諸表を分析し将来の利益を予測 「Claude 3.0 Sonnet」が内部でどう考えているかをAnthropicが公開 LoRAより効率的な高いランクでファインチューニングする新しい手法「MoRA」 “文学作品”を翻訳する、実際の出版社を真似たAI会社「T

                                                                            “株”選びにGPT-4の利益予測は使えるのか? “文学作品”を翻訳する複数AIが働く出版社「TransAgents」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                          • GPT-4oとPhi-3でLLMとSLMの双方を取り込むMicrosoftのAI戦略

                                                                              GPT-4oとPhi-3でLLMとSLMの双方を取り込むMicrosoftのAI戦略
                                                                            • ChatGPT、無料ユーザーも「GPT-4o」を利用可能に

                                                                                ChatGPT、無料ユーザーも「GPT-4o」を利用可能に
                                                                              • GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す

                                                                                導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 RAGのシステムでは一般的に、断片化されたテキストをEmbeddingによってベクトル化し、関連する情報を検索、そして質問に回答するという形式が採用されるかと思います。 しかし本来、RAGのデータソースは断片化されたテキストに限定はされていません。その一つとして、Knowledge Graph(知識グラフ)というものが存在します。 本記事では、そんなKnowledge Graphを利用した新しいRAGのシステム、GNN-RAGについて紹介します。 サマリー GNN-RAGは、Knowledge Graphから関連するデータの取得にGNNを使用します。この手法を利用することで、既存のKnowledge Gr

                                                                                  GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す
                                                                                • OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞

                                                                                  【シリコンバレー=渡辺直樹】対話型AI(人工知能)「Chat(チャット)GPT」を手がける米新興企業のオープンAIは13日、新型AI「GPT-4o(フォーオー)」を開発したと発表した。従来に比べて処理スピードを2倍に高速化した一方、運用コストを半減した。声で話しかけると、ヒトと同じ反応速度で会話ができる。弱点だった反応の遅延を克服し、AIの活用がさらに広がりそうだ。生成AIはオープンAI以外の

                                                                                    OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞