並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 619件

新着順 人気順

GPTの検索結果241 - 280 件 / 619件

  • GPT-4に日本語特化モデル OpenAI Japan始動会見で発表

    米OpenAIは4月15日、大規模言語モデル「GPT-4」について、日本語に最適化したカスタムモデルを発表した。日本語のテキストを記述する能力が向上しており、「GPT-4 Turbo」より最大3倍高速とうたっている。今後数カ月以内にAPIをリリースするという。 関連記事 OpenAI、“怠けにくい”「GPT-4 Turbo」プレビューリリースや値下げを発表 OpenAIは、11月に発表した「GPT-4 Turbo」のプレビュー版をリリースすると発表した。「GPT-4」が怠け者になってきたという苦情を受け、怠けにくくしたという。公式版は数カ月中にリリースする計画だ。 マイクロソフト提供の“社内GPT基盤”もGPT-4 Turboなどに対応 米Microsoftが、大規模言語モデル「GPT-4」などのAPIをクラウドサービス「Microsoft Azure」経由で使える「Azure OpenA

      GPT-4に日本語特化モデル OpenAI Japan始動会見で発表
    • AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】

      TOPコラム海外最新IT事情AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 2024年1月23日 米Metaと米ニューヨーク大学に所属する研究者らが発表した論文「Self-Rewarding Language Models」は、大規模言語モデル(LLM)が自分自身に報酬を与えることで繰り返し学習する「自己報酬型言語モデル」を提案した研究報告である。このモデルは、自身が生成した問題に対する応答に報酬を割り当て、その結果をトレーニングデータとして使用。自己を反復して訓練することで、精度を向上させられる。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容

        AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】
      • OpenAIが作ったGPTs 全22選|ChatGPT研究所

        皆さん、OpenAIが公式のGPTsを開発をしていることはご存じですか? 実は、 OpenAI 謹製のGPTsにも有用なものがたくさんあります。 本記事ではOpenAIが手がけるGPTs、全22個をご紹介していきます。 GPTsの基本ついておさらいしたい方は以下の noteをご覧ください! それでは、早速見ていきましょう! 1. Data Analyst(データ分析)ファイルを入力するだけで、データ分析や視覚化をサポートします。データをより深く理解するための強力なツールです。 以下は、ニューヨークの不動産情報に関するファイルを入力した例です。「要点をまとめて」という簡単な指示で、データ分析から要点をまとめるところまで一気に行ってくれます。 2. Web Browser(ウェブ検索)インターネットから検索して、情報収集やリサーチをサポートしてくれるGPT。普通のChatGPTもブラウジング能

          OpenAIが作ったGPTs 全22選|ChatGPT研究所
        • 人だと正解率92%なのに、GPT-4だと15%になる新型テスト集「GAIA」 米Metaなどが開発

          このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 米Metaや米HuggingFaceなどに所属する研究者らが発表した論文「GAIA: a benchmark for General AI Assistants」は、難しいタスクではなく、人間にとって簡単なタスクを達成する大規模言語モデル(LLM)を評価するためのベンチマークを提案している。この研究は、人間が日常で当たり前に実行してほしいタスクを正確にこなすLLM構築を目指すためのテスト集である。 現在のベンチマークは、人間にとってより困難なタスクを求めており、LLMには数学や法律などの複雑なタスクや、一貫性のある本を書くなどの複雑な課題が

            人だと正解率92%なのに、GPT-4だと15%になる新型テスト集「GAIA」 米Metaなどが開発
          • GPT-4oを使って2Dの図面から3DのCADモデルを作る

            はじめに 株式会社ファースト・オートメーションCTOの田中(しろくま)です! 先日、 OpenAIからGPT-4oがリリース されました。 いろいろGPT-4oに関して調べていると、スピードが速くなっていたり、音声も直接扱えてマルチモーダル化が進んでいたりするようなのですが、画像に関して GPT-4-turboに比べ、認識やOCRの精度が向上している ようです。 製造業という観点からすると、これは 設計図面などに活かせるようになるのでは? と思いました。 機械部品などの設計図面は以下のように、特定の方向から部品を2次元上に落とし込んだ形で書かれるのですが、部品本体を描いている図以外に、寸法や名称といった文字も含まれた画像になっています。 このような 図と文字の複合データにおいて、GPT-4oの進化は有効なのではないか と考えました。 ※画像元URL: http://cad.wp.xdoma

              GPT-4oを使って2Dの図面から3DのCADモデルを作る
            • Azure OpenAIで独自データ追加機能(Add your data)を試してみた - Qiita

              はじめに 23年6月19日にAzure OpenAIに独自データを追加できる機能「Add your data」がパブリックプレビューで発表されました。GPTは自分が知らない情報に関して、答えることができないですが、この機能を使うことで独自のデータとGPTモデルを簡単に連携させることができ、GPTが知らない独自のデータを参照して回答を生成できるようになります。また、回答のソースを独自データに限定することもできるので、ChatGPTの活用の幅が大きく広がります。 一通り使ってみたので、具体的な利用方法を解説していきます(公式ドキュメントにも詳しく記載されています)。 (23年9月追記) Add your dataにベクトル検索の機能が追加されました。詳細はこちらのブログで丁寧に解説されていますので、ご参照ください。 独自データの追加 使えるモデルはチャット形式のモデル「gpt-3.5-turb

                Azure OpenAIで独自データ追加機能(Add your data)を試してみた - Qiita
              • WhisperとChatGPTで文字起こし | ドクセル

                闇のエンジニア/変なデジカメ開発中/ディープラーニング芸人/Raspberry Piとからあげ大好き/はてなブログ書いてます

                  WhisperとChatGPTで文字起こし | ドクセル
                • ChatGPT can now see, hear, and speak

                  We are beginning to roll out new voice and image capabilities in ChatGPT. They offer a new, more intuitive type of interface by allowing you to have a voice conversation or show ChatGPT what you’re talking about. We are beginning to roll out new voice and image capabilities in ChatGPT. They offer a new, more intuitive type of interface by allowing you to have a voice conversation or show ChatGPT w

                    ChatGPT can now see, hear, and speak
                  • GPT-4の精度は悪化している? 3月に解けた数学の問題解けず GPT-3.5にも敗北──米国チームが検証

                    「GPT-4の精度は時間とともに変わっている」──そんな研究成果を米スタンフォード大学と米カリフォルニア大学バークレー校の研究チームが発表した。3月と6月時点のGPT-4の精度を比較したところ、一部タスクでは精度が大きく悪化していたという。ただし、この論文は査読前のもので第三者によるレビューは受けていない。 GPT-4は、米OpenAIが提供する大規模言語モデル(LLM)。3月の発表後、チャットAI「ChatGPT」にも搭載され、性能の高さが大きな話題を集めた。LLMは、データのフィードバックや設計変更などをすると性能が変化する。しかし、OpenAIはLLMの更新について発表しておらず、公開以後の性能変化も明らかにしていない。そこで研究チームは、3月と6月時点でのGPT-4、前モデルであるGPT-3.5に精度の違いがあるのか検証した。 実験ではChatGPTに対して「数学の問題の回答」「機

                      GPT-4の精度は悪化している? 3月に解けた数学の問題解けず GPT-3.5にも敗北──米国チームが検証
                    • 今すぐ使える! ChatGPTで欲しい回答を生み出す「プロンプト」の書き方 その基本パターンを解説

                      今すぐ使える! ChatGPTで欲しい回答を生み出す「プロンプト」の書き方 その基本パターンを解説:ChatGPT使いこなし術(4/4 ページ) 汎用性の高いプロンプトのコツ さて、こうした型を認識しても、ビジネスシーンなどでそのまま活用するのはやや手間だ。それよりはある程度、プロンプトとしてコピペで入力しやすい型を用意しておくのが良いだろう。上述した4つの基本形を生かして考えてみると、指示や質問のほかに「役割」「目的」「条件」「出力例」「補足情報」などを指定することを、まず試してみると良い。この際、全てを文章にする必要はなく、「#」を活用してカテゴリーごとに箇条書きのように整えていくことがおすすめだ。 【プロンプトの例】 #指示・質問:ChatGPTを知らない人に、ChatGPTを紹介する記事のリード文を書いてください。 #役割:プロのライター #目的:商品の利用促進 #条件:です・ます

                        今すぐ使える! ChatGPTで欲しい回答を生み出す「プロンプト」の書き方 その基本パターンを解説
                      • AIのみで『アングリーバード』を“コピー”したユーザーあらわる。コードは1行も書かず、実際にプレイ可能な『Angry Pumpkins』 - AUTOMATON

                        AI活用を模索するとあるユーザーが10月31日、『Angry Birds(アングリーバード)』に酷似したゲーム『Angry Pumpkins』を制作したと報告。同作はグラフィックもゲームコードもすべてAIで構築したとして、大きな反響を呼んでいる。 『アングリーバード』は、Rovio Entertainmentが手がけるパズルゲームシリーズだ。同作はAndroid/iOS向けゲームとして大人気に。続編『Angry Birds 2』やPC向け展開もされた。ゲームプレイとしては、スリングショット(パチンコ)で鳥を発射。物理演算や障害物との衝突も計算に入れつつ、フィールド上の敵を倒していくのが目的となる。シンプルなルールで多くのユーザーに親しまれる作品だ。 同作に類似したゲームを「AIのみで構築した」と報告する者があらわれた。AIの活用法を模索するユーザーのJavi López氏だ。同氏は、ルーム

                          AIのみで『アングリーバード』を“コピー”したユーザーあらわる。コードは1行も書かず、実際にプレイ可能な『Angry Pumpkins』 - AUTOMATON
                        • AI(ChatGPT/Claude)で抄読会のスライド作成を瞬殺する方法|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請

                          多くの研究者や医療従事者にとって、抄読会は情報収集と知識共有の重要な機会ですが、スライド作成には多くの時間と労力を費やしてしまいがちです。そこで、このプロセスを自動化するプロンプトを作成しました。 使い方は簡単です。論文のPDFを添付し、プロンプトを入力するだけで、AIがその論文の要点をまとめたスライドの下書きを自動で生成してくれます。背景、方法、結果、考察、結論の各セクションごとにスライドが作成され、重要な情報が簡潔にまとめられます。 ただし、このプロンプトを最大限活用するには、抄読会で取り上げるべき適切な論文を選ぶことが大切です。抄読会で選ぶべき論文のルールがある場合はそれをよく確認し、他の先生の貴重な時間を使って行うものなので、なるべく価値のある論文を選ぶようにしましょう。自信がない場合には選択が合っているか上級医に確認しましょう。具体的には、以下のような基準を満たす論文がおすすめで

                            AI(ChatGPT/Claude)で抄読会のスライド作成を瞬殺する方法|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請
                          • LangChainを使わない - ABEJA Tech Blog

                            TL; DR LangChainのメリデメを整理する過程で、今となってはopenai-pythonのうちChatGPTのAPIをを簡単に取り回せる程度のシンプルなライブラリがあるだけでも十分便利なんじゃないかと思ったので、ライブラリを個人で作ってみました。(バージョン0.0.1なのでちょっとお粗末な所もありますが) github.com はじめに こんにちは、データサイエンティストの坂元です。ABEJAアドベントカレンダーの13日目の記事です。世は大LLM時代ということで、ありがたいことにABEJAでも複数のLLMプロジェクトを推進させて頂いています。私自身もいくつかのLLMプロジェクトに参画しています。LLMといえばLangChainが便利ですね。OpenAI APIの利用だけでなく、各種ドキュメントのパースが出来たり、HuggingFaceやインデックスDBを扱う他のライブラリとインテ

                              LangChainを使わない - ABEJA Tech Blog
                            • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第14回:2023年下半期まとめ+α 13回分を振り返る (西川和久) | テクノエッジ TechnoEdge

                              13回分のまとめ7月からはじまったこの連載。当初、編集長から月4本と言われていたが、流石にそれは厳しく平均月2本となっている。 生成AIは技術の進歩/進化が凄まじいペースで数ヶ月前はもうかなり古い話になることもあり、今回はこれまでの13回分をまとめてみたい。 第一回~三回

                                生成AIグラビアをグラビアカメラマンが作るとどうなる?第14回:2023年下半期まとめ+α 13回分を振り返る (西川和久) | テクノエッジ TechnoEdge
                              • AWSの構成図をChatGPT(GPT-4V)に読み込ませてIaCコードを生成してみた | DevelopersIO

                                こんにちは、つくぼし(tsukuboshi0755)です! 最近ChatGPTがGPT-4Vを発表し、AI業界がさらに盛り上がりを見せてますね。 GPT-4Vを用いる事で、ChatGPTがユーザ側から入力された画像を読み取った上で、応答を返してくれるようになります。 GPT-4V(ision) system card この機能追加により、なんと以下のようにAWSの構成図を読み取って、IaCコードを生成できる事が話題になっていました。 本日をもって引退します pic.twitter.com/fygAQDQ5kj — 電気ひつじ(onoteru) (@teru0x1) October 13, 2023 これを見て私もGPT-4Vを試してみたくなったので、今回はChatGPTを使って、様々なAWSの構成図を入力し、どこまで正確にIaCコードを生成できるか確認してみます! GPT-4Vを利用する際

                                  AWSの構成図をChatGPT(GPT-4V)に読み込ませてIaCコードを生成してみた | DevelopersIO
                                • GPT-3.5-turboの新機能を使ってCVPRの論文を良い感じに検索・推薦・要約するシステム

                                  はじめに 5月からTuringに中途入社した棚橋です。リクルートで広告配信システムの開発や量子アニーリングに関する研究開発に関わっていました。現在、Turingのリサーチチームで完全自動運転システムの研究開発に取り組んでいます。 3行でまとめ 今月開催されるCVPR2023では約2400本もの論文が発表されるため、見るべき論文を事前に検索しておきたい。 社内で行われた大規模言語モデル(LLM)ハッカソンをきっかけに、LLMのEmbeddingを用いて論文の「検索・推薦・要約」システムを作成し公開した。 検索クエリに文章を使った曖昧な検索が行えたり、類似論文の推薦ができる。6/13にアップデートされたGPT3.5の新機能であるファンクション機能を使うことで、複数観点に分けて研究内容の要約を出力させた。 ↓ 今回作成した、LLMを使ったCVPR論文検索システム 事の発端 Turingは、ハンド

                                    GPT-3.5-turboの新機能を使ってCVPRの論文を良い感じに検索・推薦・要約するシステム
                                  • Llama

                                    Llama is the next generation of our open source large language model, available for free for research and commercial use.

                                      Llama
                                    • プログラマ視点での生成AIとの付き合い方

                                      プログラミングについて、最近考えてることについてのポエム。 基本的に、 GPT-4 と Claude-3-Opus を使った経験を念頭に置いて話をする。機械学習エンジニアではないので、あくまで利用者に徹した視点での話。仕事で生成AIを使ったパイプラインを作ったりはしている。 生成AIの進化速度を予測しておく 今大事なことは、今AIがどの程度の性能かという定点の話ではなく、その進化の速度を認識すること。 コード生成というタスクにおいて、生成AIモデルを人間に当てはめると、こんな感じの人物像を自分は持っている。 GPT-4: プログラミング経験2年目の大学2年生 Claude-3-Opus: プログラミング経験3年目の大学3年生 ここでいうn年目は、業務経験ではなく、プログラミングの単位がある大学での、教育課程としての経験年数。今のひたすら学習量を増やす方式だと、単に1年に1年分ぐらい賢くなっ

                                        プログラマ視点での生成AIとの付き合い方
                                      • Cursor Proを3日間で300回も使い倒してみた所感

                                        はじめに AI搭載コードエディターCursorが話題なので自分にとって使いやすいのか実験してみました。 まだまだCursorの実験途中ではありますが、CursorProをサブスクしてたった3日でgpt-4に332回聞いてました。 Cursorはプロンプトの会話から現在のコードにDiffで提案してくれたり、エラーを解決してくれたり本当に便利で最高なのですが、頼り過ぎも良くないなと反省することもあったので、やったこと全部と感想をシェアしていきたいと思います。 やったこととしては、Cursorのチャットに質問しながら予備知識のないChatVRMというオープンソースのチャットアプリケーションの追加実装をしました。わりと簡単に実装できたこととうまくできなかったことがあるので例を挙げて紹介していきます。 Cursorとは Cursor(カーソル)とは、VScodeをフォークして作られたOpenAIのg

                                          Cursor Proを3日間で300回も使い倒してみた所感
                                        • 生成AIの「RAG」とは? 知っておきたい重要キーワードを解説する【イニシャルB】

                                            生成AIの「RAG」とは? 知っておきたい重要キーワードを解説する【イニシャルB】
                                          • ニューラルネットワークの中身を分割してAIの動作を分析・制御する試みが成功、ニューロン単位ではなく「特徴」単位にまとめるのがポイント

                                            GoogleやAmazonが投資するAIスタートアップのAnthropicの研究チームが、ニューラルネットワークがどのように言語や画像を扱っているのかを解き明かす研究において、個々のニューロンを「特徴」と呼ばれる単位にまとめることでニューラルネットワークの中身を解釈しやすくなるという研究結果を発表しました。 Anthropic \ Decomposing Language Models Into Understandable Components https://www.anthropic.com/index/decomposing-language-models-into-understandable-components 大規模言語モデルは多数のニューロンが接続されたニューラルネットワークで、ルールに基づいてプログラミングされるのではなく、多数のデータを元にトレーニングを行うことでタス

                                              ニューラルネットワークの中身を分割してAIの動作を分析・制御する試みが成功、ニューロン単位ではなく「特徴」単位にまとめるのがポイント
                                            • GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ

                                              はじめに 結論 背景 課題 Fine-tuning とは? Data の準備 Fine-tuning を実施 結果 おわりに 参考 はじめに こんにちは、DROBE の都筑です。 みなさん LLM 使っていますか。今回は GPT-3.5-turbo の Fine-tuning の事例を紹介します。 結論 GPT-4 を利用して得られたデータを使って GPT-3.5-turbo を Fine-tuning する事で、特定のタスクに関しては GPT-4 相当の性能が出る事が確認できた GPT-4 利用時点で使っていたプロンプトをそのまま使った場合の性能が一番高く、token 節約のためにプロンプトの省略をすると性能が劣化した 背景 LLM を利用したサービスの開発において、OpenAI を利用する場合にはモデルの選択肢がいくつかあります。2023年9月現在では、GPT-4 と GPT-3.5-

                                                GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ
                                              • OpenAI「GPTs」がもたらす革命 誰でも「自分のコパイロット」時代へ【西田宗千佳のイマトミライ】

                                                  OpenAI「GPTs」がもたらす革命 誰でも「自分のコパイロット」時代へ【西田宗千佳のイマトミライ】
                                                • 【switch-c-2048】GoogleがついにGPT-4レベルのLLMをオープンソースで公開!概要〜使い方まで | WEEL

                                                  ホーム生成AIずかんパラメーター数1兆以上【switch-c-2048】GoogleがついにGPT-4レベルのLLMをオープンソースで公開!概要〜使い方まで メディア事業部リサーチャーのいつきとメディア事業部AIエバンジェリストの藤崎です。この記事は専門的な内容を含むため、AIスペシャリストとの共同執筆となっています。 今回ご紹介するのは、Googleがオープンソース化したMOEモデルの「switch-c-2048」について。 なんと、こちらのMOEモデルは、1.6兆個のパラメーターと3.1TBサイズのデータでトレーニングされた大規模言語モデルで、あの「GPT 4」と同等のサイズだと話題になっています! switch-c-2048を使用すれば、より高速な学習が可能になるとのことですが、新しく公開されたモデルなので使い方がわからないという方も多いでしょう。 そこで今回の記事では、switch

                                                  • GitHub、プロンプトでAIにコード生成やデバッグを指示できるGPT-4ベースの「GitHub Copilot Chat」ベータ公開

                                                    GitHubは、GTP-4ベースのAIを用いた開発支援機能「GitHub Copilot Chat」を、GitHub Copilot for Businessユーザー向けに限定パブリックベータとして公開すると発表しました。 GitHub Copilot Chatは、今年3月に発表された同社のビジョン「GitHub Copilot X」で登場が予告されていた機能の1つです。 現在提供されているGitHub CopilotはGPT-3のAIをベースに、コードエディタ内でプログラマがコメントを記述するとそれに基づいてコードを自動生成する機能などを提供しています。 「GitHub Copilot X」では、強化されたAIであるGPT-4を用い、さらに高い精度でのコード生成やバグの指摘などを始めとする、以下のさまざまな新機能などを備えると説明されていました。 コードエディタ内でAIとテキストチャット

                                                      GitHub、プロンプトでAIにコード生成やデバッグを指示できるGPT-4ベースの「GitHub Copilot Chat」ベータ公開
                                                    • 【GPT-4V APIのおすすめ活用事例】OpenAIの最新モデルを使ったヤバい使い方10選 | WEEL

                                                      みなさん、API経由でGPT-4Vが使えるようになったのはご存知ですか? その名も「GPT-4V API」というモデル名なのですが、GitHubでスター10,000超えのAIツール・tldrawに採用されています。 このGPT-4V APIは、アプリ・サービスに目を与えてくれるすぐれものなんです! 当記事では、そんなGPT-4V APIの活用事例のうち、SNSでバズったものだけを10個ピックアップしました。 最後まで読んでいただくと、APIで作れるアプリ・サービスのレパートリーが増えるかもしれません。ぜひ最後までお読みくださいね! なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽にご相談ください。 →無料相談で話を聞いてみる GPT-4V APIとは?概要を紹介 「GPT-4V API」はChatGPT APIのなかで唯一、画像入力に対応しているモデルです

                                                        【GPT-4V APIのおすすめ活用事例】OpenAIの最新モデルを使ったヤバい使い方10選 | WEEL
                                                      • 初心者が言語モデルを勉強するための本(2023年6月版) - ぱたへね

                                                        流行のLLMを勉強したくて沢山本を読みました。 この後もしばらくLLM(GPT)関係の出版が続きそうなので、現状の本でまとめてみました。 参考: nowokay.hatenablog.com まとめ。 Transformerの仕組みを知りたい人で、画像のDeep Learningなら分かるって人はVision Transformer入門 言語モデルをデータセットを作る所からやってみたい人には、作ってわかる! 自然言語処理AI とにかくすぐに動かしたい人には、機械学習エンジニアのためのTransformers ビジネス的に何ができるのかを知りたい人はBERT入門 Vision Transformer入門 Vison Transformerになっていますが、Transformerの説明がとても詳しくお勧めです。実際に写経してパーツパーツで動かせるのはこの本だけ。Transformer一点突破な

                                                          初心者が言語モデルを勉強するための本(2023年6月版) - ぱたへね
                                                        • マイクロソフト、軽量かつ高性能な大規模言語モデル「phi-1」を発表

                                                          Microsoft ResearchのAI研究チームは6月20日(現地時間)、わずか13億パラメーターと従来のものよりもサイズが小さいにも関わらず「GPT-3.5(1750億パラメーター)」を上回る成績を収めたTransformerベースの大規模言語モデル「phi-1」を発表した。このモデルは間もなく「Hugging Face」で公開される予定だといいう。 ベンチマークでGPT-3.5を凌駕 「Textbooks Are All You Need」と題された研究論文によると、このモデルは8台のA100(NVIDIAの高性能GPU)でわずか4日間かけて訓練され、インターネット上から取得した60億トークンの「教科書品質」データセットと、GPT-3.5で生成した10億トークンの微調整用「練習問題」データセットが使用された。 サイズが小さいにもかかわらず、phi-1はLLMの性能を測定するためのベ

                                                            マイクロソフト、軽量かつ高性能な大規模言語モデル「phi-1」を発表
                                                          • ChatGPT Plus で使える Code Interpreter でのグラフ描画と PowerPoint のスライド化(ダウンロードできるファイルの生成) - Qiita

                                                            ChatGPT Plus で使える Code Interpreter でのグラフ描画と PowerPoint のスライド化(ダウンロードできるファイルの生成)PythonChatGPTChatGPTPlusGPT-4CodeInterpreter はじめに 先ほど、ChatGPT の Code Interpreter を軽く試した流れ(+関連情報)を記事にしたのですが、その後に試したことも記事にしてみます。 ●ChatGPT Plusユーザー向けの Code Interpreter で QRコード生成を試す!(Pythonの qrcode パッケージを使用した処理) - Qiita https://qiita.com/youtoy/items/89a944fc9125ee6b8426 この記事で紹介するのは、グラフ描画と、ダウンロードが可能な PowerPoint のファイルの生成です。

                                                              ChatGPT Plus で使える Code Interpreter でのグラフ描画と PowerPoint のスライド化(ダウンロードできるファイルの生成) - Qiita
                                                            • EdgeのAI機能「Bingチャット」が進化、自分で読まなくても英文PDFの内容が分かるぞ!【イニシャルB】

                                                                EdgeのAI機能「Bingチャット」が進化、自分で読まなくても英文PDFの内容が分かるぞ!【イニシャルB】
                                                              • Function calling and other API updates

                                                                We’re announcing updates including more steerable API models, function calling capabilities, longer context, and lower prices. July 20, 2023 update: We previously communicated to developers that gpt-3.5-turbo-0301, gpt-4-0314 and gpt-4-32k-0314 models were scheduled for sunset on Sept 13, 2023. After reviewing feedback from customers and our community, we are extending support for those models unt

                                                                  Function calling and other API updates
                                                                • RAGにおけるドキュメント検索精度向上について(概要編)

                                                                  はじめまして。損害保険ジャパン株式会社 DX推進部の眞方です。普段はリードエンジニアとして、新しいサービスのアーキテクチャ検討からローンチまでの作業や、新規技術を用いたアプリのプロトタイプ実装などを行なっています。 弊社では、LLM(Large Language Models)を活用したアプリケーションの開発を積極的に検討し、既に社内でいくつかのプロトタイプをローンチしています。 本記事では、その最も一般的?なユースケースの一つとも言えるRAG(Retrieval Augmented Generative)の構築において、ドキュメント検索精度の向上にどのように取り組んだ内容の概要を紹介させていただきます。実際の詳細な手法および結果については、別記事(実践編)で解説予定です。 はじめに RAGとは? この記事を読まれている方の中にはご存知の方も多いでしょうが、RAGとはRetrieval A

                                                                    RAGにおけるドキュメント検索精度向上について(概要編)
                                                                  • ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog

                                                                    こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。世間では ChatGPT などの大規模言語モデル(LLM)による対話型 AI が盛り上がってますね。クオリティーも凄いし AI 業界以外でも盛り上がってると嬉しいですよね。この数年で一段と AI の社会実装が業界以外の人にも目に見える形で進んできたなあと実感しております。 自分は普段業務では ABEJA Platform という AI プロダクトやその周辺プロダクトのバックエンド開発とフロントエンド開発をやっているのですが、AI 業界所属していながら ChatGPT などの LLM 全然追いかけれていない状態になっちゃてて自責の念にかられているので、このブログ執筆という良い機会に ChatGPT の仕組みについて調べてみました。 本記事の対象読者としては、以下のようになりま

                                                                      ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog
                                                                    • Open Interpreterがついに画像出力にも対応!使い方から実践までを解説【画像付き】 | WEEL

                                                                      つまり、Open Interpreterの推しポイントはこちらです。 動作環境 Open Interpreterはクラウドとローカル環境の両方で動作するため、インターネットへのフルアクセスが可能です。これにより、外部APIやデータベースに自由にアクセスでき、プロジェクトの柔軟性が大幅に向上します。 パッケージとライブラリの選択肢 Open Interpreterでは、任意のパッケージやライブラリを使用できます。これは、特定のプロジェクトに最適なツールを選べるという点で非常に価値があります。 制限のない実行時間とファイルサイズ Open Interpreterは実行時間やファイルサイズに制限がありません。大規模なデータ分析や計算処理もスムーズに行えます。 セキュリティの確保 Open Interpreterは、コードを実行する前にユーザーの確認が必要です。不正なコードの実行を防ぐことができ、

                                                                      • ChatGPT の長いプロンプトに意味があるのか気になったときに試す評価方法|piqcy

                                                                        ChatGPT を上手く使う方法として、非常に長いプロンプトが共有されているのを見たことがある方は多いと思います。ただ、実務で使う場合長いプロンプトより短いプロンプトの方が扱いやすく API を利用する際のコストも少なく済みます。「ユーザーが作成した Excel マクロをメンテナンスしてほしい」と言われると 90% のエンジニアは不吉な予感に胃が痛くなると思いますが ( ※個人の感覚です ) 、今後誰かが生み出した長文プロンプトが業務に欠かせないものになっていて数文字変えると挙動が変わるようになっていたりしたらメンテナンスには想像を絶する苦痛が伴います。 プロンプト内の表現が性能へどのように寄与するのか計測することができれば、不要な表現を削り短くすることができます。本記事では、既存の書籍や記事をもとに期待する回答の基準点を定め、基準点よりどれだけ差異ある返答が得られたかで評価する方法を提案

                                                                          ChatGPT の長いプロンプトに意味があるのか気になったときに試す評価方法|piqcy
                                                                        • AIが「長期記憶」を手に入れて進化、相手の名前や予定を覚え、文脈を共有して話せる「MemGPT」【イニシャルB】

                                                                            AIが「長期記憶」を手に入れて進化、相手の名前や予定を覚え、文脈を共有して話せる「MemGPT」【イニシャルB】
                                                                          • ChatGPT APIのFunction callingを使って、請求書の構造化データを抽出する | gihyo.jp

                                                                            いまからわかる!ChatGPT活用プログラミング ChatGPT APIのFunction callingを使って⁠⁠、請求書の構造化データを抽出する 先月、OpenAIからFunction calling(関数呼び出し)機能がリリースされました。これが何なのか、何のために使うべきなのか、ちょっと見ただけでは分かりづらいと思います。 今回は請求書から情報抽出をするというよくありがちなケースを題材に、Function callingの利便性を示してみます。 Function callingとは OpenAIが2023年6月13日にリリースしたChat APIの追加機能です。主にできることとして以下の3つが挙げられています。 外部ツールを呼び出して質問に答えるチャットボットを作成する 自然言語を内部APIの呼び出しやSQLに変換する テキストから構造化データを抽出する たとえば天気予報と血液型

                                                                              ChatGPT APIのFunction callingを使って、請求書の構造化データを抽出する | gihyo.jp
                                                                            • RAGを複雑な質問に強くする手法「CoA」について

                                                                              本記事では、「Chain-of-Abstraction (CoA) Reasoning」についてざっくり理解します。軽めの記事です。 株式会社ナレッジセンスでは普段の業務で、生成AIやRAGシステムを活用したサービスを開発しています。 この記事は何 この記事は、最近聞くようになった「Chain-of-Abstraction (CoA) Reasoning」の論文[1]について、日本語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 本題 ざっくりサマリー LLMが外部ツールを使って回答を生成するときの、回答精度を高める手法についての論文です。Metaの研究者らによって2024年1月に提案されました。「Chain-of-Abstraction (CoA)」という手法を使うメリットは、RAGに応用することで

                                                                                RAGを複雑な質問に強くする手法「CoA」について
                                                                              • Introducing OpenAI Japan

                                                                                As we grow our operations internationally, we’re expanding into Asia with a new office in Tokyo, Japan. We are committed to collaborating with the Japanese government, local businesses, and research institutions to develop safe AI tools that serve Japan’s unique needs and to unlock new opportunities. We chose Tokyo as our first Asian office for its global leadership in technology, culture of servi

                                                                                  Introducing OpenAI Japan
                                                                                • OpenAIのGPT-4oを日本語OCRとして使ってみる

                                                                                  昨日、OpenAIが生成AIの新しいモデルであるGPT-4oを発表しました。消費するトークン数の節約や、音声合成機能の改善、応答速度の向上など着実な品質改善を見せているようです。私も、特に音声合成(Text To Speech)の表現力について非常に興味を持っています。 私は以前、「OpenAIのGPT-4 Turbo with visionを日本語OCRとして使ってみる」で、GPT-4 Turboの画像認識機能の日本語OCRについて検証を行いました。その当時は、既存のコグニティブAI APIに比べて認識精度が十分でないという評価をしています。とはいえ、その後に出てきたClaude 3 Opusは驚くべき認識精度だったので、OpenAIも巻き返す可能性は十分にあると感じました。Azure OpenAI Serviceを使っている場合は、Vision enhancementという既存のコグニ

                                                                                    OpenAIのGPT-4oを日本語OCRとして使ってみる