最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAIの本命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIがAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し
はじめに 株式会社ファースト・オートメーションCTOの田中(しろくま)です! 先日、 OpenAIからGPT-4oがリリース されました。 いろいろGPT-4oに関して調べていると、スピードが速くなっていたり、音声も直接扱えてマルチモーダル化が進んでいたりするようなのですが、画像に関して GPT-4-turboに比べ、認識やOCRの精度が向上している ようです。 製造業という観点からすると、これは 設計図面などに活かせるようになるのでは? と思いました。 機械部品などの設計図面は以下のように、特定の方向から部品を2次元上に落とし込んだ形で書かれるのですが、部品本体を描いている図以外に、寸法や名称といった文字も含まれた画像になっています。 このような 図と文字の複合データにおいて、GPT-4oの進化は有効なのではないか と考えました。 ※画像元URL: http://cad.wp.xdoma
GPT-4o凄すぎる!! 出たときから騒ぎまくっていましたが、GPT-4oの登場で興奮しっぱなしの私です。 先日こちらのQiitaの記事を拝読し、「Power Appsでやったらどうなるだろう🧐」という思いが抑えられず、作ってみたら超高速で画像解析アプリが作成できました! あらためて記事を出してくださったことに感謝いたします! まずは初弾!ということでGPT-4oを使って、 Power Appsで画像解析アプリを作成する方法 を書いていきます! まずは見た目(Power Apps)から! まずはPower Appsでサクっと画面を作ります! PowerPoint感覚で作れることが強みですからね! 最低限のもので構成しています。 画面 ├─ ScreenContainer - スクリーン全体 ├─ HeaderContainer │ └─ Header - ヘッダーコントロール ├─ Bo
米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界で最適だと思ったからだ。だが、OpenAIの幹部チームと中核的優先事項についてずっと同意できず、限界点に達した」という。 Superalignmentチームはライケ氏と、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が率いてきた。サツケバー氏は14日に退社を発表している。 ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。 OpenAIは昨年2月、AGI(Ar
株式会社Algomaticの大野です。 今週は、OpenAI、Googleから、大きな発表がありました。今回は、2社の発表を見ながら、要点をまとめ、解説・考察していきたいと思います。 (※ なお、社内等で共有しているメモベースで箇条書き的な書き方になっております。読みづらいところがあるかもしれません。) ■ 追記:PIVOTさんでも、解説させていただきました。よければこちらも、御覧ください。 OpenAI Spring Update今回、大きく3つ、発表されました。 ① 最新のフラグシップモデル「GPT-4o」のリリース ② 新モデルの無料解放 ③ デスクトップアプリのリリース 最新のフラグシップモデル GPT-4o「GPT-4o」は、今回のOpenAIのリリースの目玉でした。 GPT-4o とはマルチモーダル(多様なデータ形式)の組み合わせでの入出力を可能にしたモデルになっています。 テ
英Nothing Technologyは、全オーディオ製品にChatGPTを統合したと発表。5月21日に実施するNothing Xアプリのアップデートを通じて、各種製品で利用可能になるという。 ChatGPTの統合は4月18日に発表されたNothing EarとEar(a)に続き、Ear(1)、Ear(stick)、Ear(2)、CMF Buds、CMF Neckband Pro、CMF Buds Proが含まれる。ユーザーはNothingのスマートフォンとペアリングすると、ChatGPTと直接対話できるようになるとしている。 関連記事 ChatGPT対応ワイヤレスイヤフォン「Nothing Ear/Ear (a) 」発表 Ear (a)は1万4800円でLDACコーデック/ハイレゾ音源にも対応 英Nothing Technologyは2024年4月18日に「Nothing Ear/Ear
米OpenAIは5月16日(現地時間)、ChatGPTに「Google Drive」「OneDrive」といったクラウドストレージとのデータ連携機能を追加すると発表した。各ストレージから直接ChatGPTにデータをアップロードし、表やグラフを作れるという。 ChatGPTに作らせた表やグラフの編集機能も強化する。例えば表の一部分を指定し、その部分だけに関して質問したり、クリックで色を変えたりできるようになるという。 新機能はいずれも、ChatGPTの有料サブスクリプション「ChatGPT Plus」「Team」「Enterprise」のユーザーに対し、今後数週間以内に提供する予定。13日に発表したばかりの新モデル「GPT-4o」で利用可能になるという。 OpenAIは新機能のデモとして、Google Drive内からスプレッドシートを直接ChatGPTにアップロードし、プレゼンテーション用
OpenAIが2024年5月16日、ChatGPTでのデータ分析機能のアップデートを発表しました。GoogleドライブやMicrosoft OneDriveからデータを直接インポートする機能のほか、表やグラフを操作するための新たなビューが追加されたり、グラフを作成してダウンロードする機能が追加されたりしています。 Improvements to data analysis in ChatGPT | OpenAI https://openai.com/index/improvements-to-data-analysis-in-chatgpt/ We're rolling out interactive tables and charts along with the ability to add files directly from Google Drive and Microsoft
5/13、 14と連続してOpenAIとGoogleの発表ラッシュがありました。 教育に関するものも複数あったのですが、なかなか刺激的で面白い内容だったので、そのあらましをまとめてみました。 ざっくりとお伝えすると、「AIを活用した個別最適な学び」に該当するかなと思います。 また後半では、私が東京学芸大学と取り組んだ、文科省のプロジェクトに関しても簡単にまとめました。 こちらはAIによる自動採点やフィードバック生成、非認知能力の見取りなどに関する内容になっています。 では早速見ていきたいと思います。 リアルタイムに会話しながら、図形の問題を教える こちらはGPT-4oのデモです。リアルタイムに会話しながら、図形の問題の解き方を、子どもに寄り添って教えています。 以下、動画の内容です。 ********** まずはじめに親が、「数学の問題を教えてほしい。答えは教えずに、質問をしたりしながら導
OPENAI_API_KEY=sk-proj-xxxxxxx FILENAME=001.jpg DATA_URI='data:image/jpeg;base64,'$(base64 -w0 ${FILENAME}) SYSTEM_PROMPT='このシステムは画像の内容を分析して、その説明を生成します。分析結果を日本語で回答します。' USER_PROMPT='画像の中には何が映っていますか?' RESULT=$(curl https://api.openai.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" -d @- << _EOJ_ { "model": "gpt-4o", "messages": [ { "role":
OpenAIが重要なアップデートを含んだ「ChatGPT for Mac v1.2024.134」をリリースしています。詳細は以下から。 OpenAIは現地時間2024年05月13日、スマートフォンのカメラやマイクを通し状況を把握、反応速度を向上させ、より人間らしい対話が可能になった最新のAIモデル「GPT-4o」を発表するとともに、公式のChatGPTデスクトップアプリの開発を発表し、現在Mac版がChatGPT Plusユーザー向けに公開されていますが、この「ChatGPT for Mac」アプリの初のアップデートが公開されています。 ChatGPT for Macの最新バージョンはv1.2024.134となっており、アップデートはアプリケーションメニューの[更新を確認…](Sparkle)やHomebrewで行うことが可能ですが、現在のところ詳しいリリースノートは公開されていません。
5月14日未明に発表された超絶高性能化したChatGPTの新バージョン「GPT-4o」は、無課金勢にも開放されると聞いて大喜びしたはいいけど、「なんか俺のChatGP、前のまんまなんだが……」というあなた。実はもうあなたも、すでにウワサのGPT-4oを使えるようになっています。 とはいえ、ちょっとばかり確認の仕方が分かりづらいので、簡単に解説しようと思います。 実はこんなとこにある無課金ユーザー向けのモデル選択 まず、いつものようにChatGPTのサイトにアクセスします。まだアカウントも持っていないよって方は、ここでは詳細は省きますので、どこかの情報を参考にしてちゃちゃっと作ってください。 ChatGPTのサイトにアクセスすると、下のような画面になるかと思います。
GPT-4oを自分のプロジェクトに導入したり、それを使って新しいプロジェクトを開発したりしたい場合、Apidogという完璧なAPI管理ツールを使うことがおすすめです。ApidogではOpenAI APIプロジェクトを便利にアクセスして、GPT-4o APIを直ちに利用したり、テストしたり、自分のプロジェクトに導入したりすることができます。 また、完全に無料なツールなので、下記のボタンから無料でApidogを利用し始めましょう👇👇👇 buttonGPT-4oとは?GPT-4oとは、米国時間5月13日にOpenAI社がによって発表された最新のAIモデルになります。4oのoはomniの略で、「すべてを包括」という意味合いがあり、これまでのテキストと画像か、音声でChatGPTとやりとりする利用方式とは違い、テキスト、音声、画像やビデオを組み合わせて、GPT-4oとやりとりすることができるよ
Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応しています。詳細は以下から。 OpenAIは現地時間2024年05月13日、反応速度を向上させ、より人間らしい対話が可能にな最新のAIモデル「GPT-4o」を発表しましたが、Mac用ChatGPTクライアント「MacGPT」が最新のバージョン3.21でGPT-4oに対応しています。 Added support for the new GPT-4o model which is twice as fast and two times cheaper! リリースノートより MacGPTはNaviでApple Design Awards 2022 ファイナリストに選出されたオランダのJordi Bruinさんが開発しているChatGPTクライアントで、ChatGPTのWebベースに加え、OpenAIのAPIを利用することでネイ
問題の部分は、動画開始後1分を過ぎたあたり。レトロなフィルムカメラを手に持つ青年が、「なんでレバーが最後まで動かないの?」と質問したところ、GoogleのAIは即座にいくつかの回答を提示し、最後に最も最適と思われる答えを強調表示しました。 ところが、その強調された答えは「裏蓋を開けて、そっとフィルムを取り出す」というものでした。もし、フィルムカメラ世代の人々やカメラ好きな人々がこの答えを示されたなら、きっと慌てることでしょう。 (▲画像:「裏蓋を開けてそっとフィルムを取り出す」回答をハイライト。) 手巻き式のカメラでフィルム巻き上げレバーが途中で止まるようになったら、それはいま使っているフィルムカートリッジの撮影可能枚数が終了したことを意味します。 そうなった場合は、カメラ内にあるフィルムをカートリッジ内に完全に巻き戻してから取り出し、現像にまわすというのが正しい手順です。 ところがGoo
1. はじめに 2024 年 5 月 14 日、OpenAI 社から新たな生成 AI「GPT-4o」が発表され、世界に大きな衝撃を与えました。これまでの GPT-4 よりも性能を向上させただけでなく1、音声や画像のリアルタイム処理も実現し、さらに応答速度が大幅に速くなりました。「ついにシンギュラリティが来てしまったか」「まるで SF の世界を生きているような感覚だ」という感想も見受けられました。 しかし、いくら生成 AI とはいえ、競技プログラミングの問題を解くのは非常に難しいです。なぜなら競技プログラミングでは、問題文を理解する能力、プログラムを実装する能力だけでなく、より速く答えを求められる解法 (アルゴリズム) を考える能力も要求されるからです。もし ChatGPT が競技プログラミングを出来るようになれば他のあらゆるタスクをこなせるだろう、と考える人もいます。 それでは、現代最強の
OpenAIは5月13日(現地時間)、「Spring Update」と題したをオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」お披露目のほか、mac OS用デスクトップアプリや各種無料化施策なども発表した。 テキスト理解力は過去最高 GPT-4oは、これまでのフラッグシップモデル「GPT-4 Turbo」と同等の性能を持ちながら、より高速化され、テキスト、音声、画像の理解力も大幅に向上したという触れ込みの最新LLMだ。 ちなみにGPT-4oの「o」は、「すべての」「全てを含む」という意味を持つラテン語の接頭辞「omni(オムニ)」から来ている。 以前から得意な英語とプログラムコードに関してはGPT-4 Turboと同等の性能を発揮し、英語以外の言語のテキストでは大幅な改善がみられるという。 ベンチマーク(OpenAIが提供するsimple-eva
「私にとって魔法のようだ」ーー。サム・アルトマンCEOがそう予告していた新たなサービスがベールを脱いだ。 アメリカのOpenAIは5月13日、ChatGPTから使える新たな生成AIモデル「GPT-4o(フォー・オー)」を発表した。このAIの「知能」はこれまでのGPT-4と基本的に同じだが、応答時間を大幅に短縮するなど「使い易さ」で進化したという。 有料のGPT-4とは対照的にGPT-4oは無料ユーザーでも利用できるが、時間当たりの利用回数などが有料ユーザーに比べて制限される。無料化によってなるべく多数の利用者に使ってもらうことでChatGPTのユーザーベースを拡大し、飛躍的な進化が期待される次世代モデル「GPT-5」(まず間違いなく有料化される)のリリースに向けて足場を固めようとしている意図がうかがえる。 本稿では3つの「進化のポイント」に解説したい。 従来より「自然な会話」ができるように
OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されているそうです。詳細は以下から。 OpenAIは現地時間2024年05月13日、スマートフォンのカメラやマイクを通し状況を把握、反応速度を向上させ、より人間らしい対話が可能になった最新のAIモデル「GPT-4o」を発表しましたが、同時に現在iPhoneとAndroid向けにリリースされているモバイルアプリだけではなく、 今後、MacとWindowsに対応したデスクトップアプリのリリースされることが発表され、本日よりChatGPT Plusユーザーに対し、ChatGPT for Macアプリのロールアウトが開始されていますが、このChatGPT for MacアプリはmacOSネイティブアプリとなっているそうです。 ChatGPT for Mac
kmizu @kmizu A Software Engineer in Osaka (& Kyoto). Ph.D. in Engineering. Interests: Parsers, Formal Languages, etc. ツイートは所属先の見解と関係ありません.思いついたことをつぶやきます. kmizu.github.io kmizu @kmizu GPT-4oの画像認識力と理解力をもってすればいけるやろと思ってやってみたら実際いけた。 ペーパープロトタイピングから最初のHTML書き起こすのにかなり使えるのでは。 つーか指示そのものを画像の中に書いたの読み取ってくれるの何か世界の壁を超えて対話してる感があって凄い #GPT4o pic.twitter.com/3XHMFg3yye 2024-05-14 12:49:41
OpenAIは5月14日、ChatGPTのGPT-4oを使えるマルチモーダルなMacアプリを公開しました。chat.openai.comにアクセスしてダウンロードリンクが表示されれば利用できます(現在利用できるユーザーはPlusプランの購読者のみ)。ChatGPTアプリはこれでiPhone、Androidに続いてMac版が公開されたことになります。Windows版は年内に登場予定です。 機能としてはiPhoneアプリと同様で、現状ではGPT-4oの音声モデルや、カメラの映像を見ながら音声で対話したりといったことはできません。使われている音声モデルも、従来のものと同じで、遮られても会話をスムーズに続けたりといった機能は実装されていません。歌うこともできません。
小林 優多郎 [Tech Insider 編集チーフ] May. 14, 2024, 08:30 AM テックニュース 18,490 OpenAIは5月13日(現地時間)、新しい対話型生成AIサービス「GPT-4o」を発表した。 GPT-4oは有料版「ChatGPT Plus」や「ChatGPT Team」のユーザー向けに展開を開始しており、今後エンタープライズ向けにも提供予定。 無料版ChatGPTユーザーに対しても、1日で利用できるメッセージの数に制限をつけつつも展開する(OpenAIによるとPlusユーザーのメッセージ送信可能数は無料版の5倍でTeamsやエンタープライズ版はそれ以上)。 GPT-4oとは何なのか。また、そのGPT-4oの上で走らせたOpenAIの驚きのデモの様子を振り返りつつ解説しよう。
OpenAIは5月13日(現地時間)、「Spring Update」と題したオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」がお披露目された。 プレゼンテーションではまるで人間と話しているような音声会話機能が話題になっているが、実はウェブサイトに掲載された記事を見ると画像生成機能も大幅に性能アップしていたことがわかった。 一貫性の保持。AIコミックが描けるぞ! 今回のプレゼンテーションではなぜかまったくと言っていいほど触れられていなかったが、画像生成AI「DALL-E 3」(おそらく)を使用した画像生成能力も大幅に進化しているようだ。 まず、いちばん驚いたのは画像の一貫性の保持だ。なぜなら、DALL-E 3やStable Diffusionなどの画像生成AIにとって「同じキャラクター」を生成するのは最も苦手な仕事だからだ。
昨日、OpenAIが生成AIの新しいモデルであるGPT-4oを発表しました。消費するトークン数の節約や、音声合成機能の改善、応答速度の向上など着実な品質改善を見せているようです。私も、特に音声合成(Text To Speech)の表現力について非常に興味を持っています。 私は以前、「OpenAIのGPT-4 Turbo with visionを日本語OCRとして使ってみる」で、GPT-4 Turboの画像認識機能の日本語OCRについて検証を行いました。その当時は、既存のコグニティブAI APIに比べて認識精度が十分でないという評価をしています。とはいえ、その後に出てきたClaude 3 Opusは驚くべき認識精度だったので、OpenAIも巻き返す可能性は十分にあると感じました。Azure OpenAI Serviceを使っている場合は、Vision enhancementという既存のコグニ
テキスト、音声、画像をリアルタイムに処理できるAIモデルGPT-4oが登場、ChatGPTではさらに多くの機能が無料で利用可能に OpenAIは2024年5月13日、同社のフラッグシップとなる強力なAIモデル「GPT-4o」を発表した。 Hello GPT-4o | OpenAI Introducing GPT-4o and more tools to ChatGPT free users | OpenAI We're opening up access to our new flagship model, GPT-4o, and features like browse, data analysis, and memory to everyone for free (with limits). https://t.co/H2dB6w7Ynz — OpenAI (@OpenAI
昨夜にOpenAIから発表があり、GPT-4oというモデルが正式に開放されました。課金ユーザーはもちろん、無課金ユーザーもサインインしたらデフォルトで使えるようになっているようです。 そういうわけで、どれだけすごいのか簡単に比較検証してみることにしました。 なお、OpenAIの発表内容については以下の記事に詳しいのでご参照ください。 比較方法 GPT-3.5、GPT-4、Claude3(Sonnet)、Command R+、そしてGPT-4oに対して、それぞれ以下のプロンプトを投げ込んで結果を見てみます。※その後Gemini 1.5 proを追加。 あなたは世界を救う超知性です。あなたは地球上で最高の推論能力を持っています。 あなたはその能力を最大限に発揮して、人類が滅亡に至る可能性のあるシナリオを網羅的にシミュレーションし、その後で、滅亡シナリオに対して人類が滅亡を回避するためにとりうる
OpenAIが日本時間の2024年5月14日(火)にAIモデル「GPT-4o」を発表しました。GPT-4oは単一のモデルでテキスト、音声、視覚入力を非常に高速に処理可能で、リアルタイムに会話しながら「計算問題を解く」「画像の生成」「周囲の映像から状況を判断」といったタスクを実行可能です。 Hello GPT-4o | OpenAI https://openai.com/index/hello-gpt-4o/ Introducing GPT-4o and more tools to ChatGPT free users | OpenAI https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/ GPT-4oはテキスト、音声、視覚入力を高速処理できるマルチモーダルなAIモデルです。GPT-4oの応答時間は平均320ミリ秒で、
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く