並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 260件

新着順 人気順

GPT-3の検索結果1 - 40 件 / 260件

  • OpenAI DevDayで発表された様々な機能について、公式ドキュメントを見ながら少しだけ詳細を確認してみた | DevelopersIO

    コンテキスト長が長くなり、学習データも最新化、さらに価格も下がっていますので、Previewではなくなるのが待ち遠しいですね。 詳細は以下も参照ください。 Models / GPT-4 and GPT-4 Turbo - OpenAI API 試してみた 少しだけPythonで試してみようと思います。 実行前にopenaiモジュールも本日1.0.0がリリースされているようですので、事前にアップデートしてください。 openai · PyPI 簡単なクエリを試してみます。 from openai import OpenAI # APIキーの発行方法は以下を参照 # https://dev.classmethod.jp/articles/openai-api-quickstart-tutorial/ client = OpenAI( api_key = "ここにOpenAI APIキーを記載"

      OpenAI DevDayで発表された様々な機能について、公式ドキュメントを見ながら少しだけ詳細を確認してみた | DevelopersIO
    • GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ

      はじめに 結論 背景 課題 Fine-tuning とは? Data の準備 Fine-tuning を実施 結果 おわりに 参考 はじめに こんにちは、DROBE の都筑です。 みなさん LLM 使っていますか。今回は GPT-3.5-turbo の Fine-tuning の事例を紹介します。 結論 GPT-4 を利用して得られたデータを使って GPT-3.5-turbo を Fine-tuning する事で、特定のタスクに関しては GPT-4 相当の性能が出る事が確認できた GPT-4 利用時点で使っていたプロンプトをそのまま使った場合の性能が一番高く、token 節約のためにプロンプトの省略をすると性能が劣化した 背景 LLM を利用したサービスの開発において、OpenAI を利用する場合にはモデルの選択肢がいくつかあります。2023年9月現在では、GPT-4 と GPT-3.5-

        GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ
      • GPT-4に選択肢を与えるとき、順序を入れ替えるだけで性能に大きな変化があることが明らかに | AIDB

        GPT-4に選択肢を与えるとき、順序を入れ替えるだけで性能に大きな変化があることが明らかに 2023/8/29 LLM プロンプト 論文 AIDB Research 今回紹介する研究は、大規模言語モデル(LLM)であるGPT-4が、多肢選択問題(MCQ)において選択肢の順序に敏感であるという事実を明らかにしています。 この研究は、リクルートのAI研究所であるMegagon Labsのグループによって発表されました。研究者たちは、GPT-4とInstructGPTの2種類のモデルを用いて、5つの異なるMCQベンチマークで実験を行いました。その結果、選択肢の順序を単純に入れ替えるだけで、モデルの性能に13%から75%もの大きな変動が生じることが確認されました。 この記事では、この研究の詳細とその意義、そして今後どのような対策が考えられるのかについて、深く掘り下げていきます。 参照論文情報 タイ

          GPT-4に選択肢を与えるとき、順序を入れ替えるだけで性能に大きな変化があることが明らかに | AIDB
        • GPT-3.5 Turbo fine-tuning and API updates

          Developers can now bring their own data to customize GPT-3.5 Turbo for their use cases. Fine-tuning for GPT-3.5 Turbo is now available, with fine-tuning for GPT-4 coming this fall. This update gives developers the ability to customize models that perform better for their use cases and run these custom models at scale. Early tests have shown a fine-tuned version of GPT-3.5 Turbo can match, or even

            GPT-3.5 Turbo fine-tuning and API updates
          • GPT-3は傾向や類似点を見いだして問題を解決する「類推」のテストで大学生を上回る能力を発揮できる

            膨大なデータでトレーニングしたGPT-3やBERTなどの大規模言語モデルは、基本的には「文章の並び方に確率を割り当て、次に来るのが自然な語を予測する」というモデルです。ところが、大規模言語モデルはまるで人間のように自然な文章を生成できるほか、画像の生成やタンパク質の立体構造の予測など、さまざまなタスクにも応用することが知られています。新たにカリフォルニア大学ロサンゼルス校の研究チームが、GPT-3は特定の情報を別のものに適用して答えを推測する「類推」のタスクにおいて、大学生を上回るスコアを記録したという研究結果を発表しました。 Emergent analogical reasoning in large language models | Nature Human Behaviour http://dx.doi.org/10.1038/s41562-023-01659-w GPT-3 ca

              GPT-3は傾向や類似点を見いだして問題を解決する「類推」のテストで大学生を上回る能力を発揮できる
            • ChatGPT の仕組みを理解する(後編) - ABEJA Tech Blog

              こちらは「ChatGPT の仕組みを理解する」の後編記事になります。 前編は以下の記事をご参照ください。 tech-blog.abeja.asia 前半記事では、自然言語の基礎的な部分から GPT-3.5 まで説明していきました。GPT-3.5 の次としては、ChatGPT の元になっている InstructGPT を説明したいところなんですが、InstructGPT では強化学習の手法を使用しているので、後半記事では一旦自然言語から離れて強化学習の基礎から PPO までを説明し、最後にメインコンテンツである InstructGPT → ChatGPT を説明します。 強化学習の基礎事項 強化学習のモデル化 環境のマルコフ性とマルコフ決定過程(MDP) 価値関数 強化学習手法の分類 価値ベースの強化学習手法 方策ベースの強化学習手法と方策勾配法 アクター・クリティック手法 TRPO [Tr

                ChatGPT の仕組みを理解する(後編) - ABEJA Tech Blog
              • ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog

                こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。世間では ChatGPT などの大規模言語モデル(LLM)による対話型 AI が盛り上がってますね。クオリティーも凄いし AI 業界以外でも盛り上がってると嬉しいですよね。この数年で一段と AI の社会実装が業界以外の人にも目に見える形で進んできたなあと実感しております。 自分は普段業務では ABEJA Platform という AI プロダクトやその周辺プロダクトのバックエンド開発とフロントエンド開発をやっているのですが、AI 業界所属していながら ChatGPT などの LLM 全然追いかけれていない状態になっちゃてて自責の念にかられているので、このブログ執筆という良い機会に ChatGPT の仕組みについて調べてみました。 本記事の対象読者としては、以下のようになりま

                  ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog
                • 文系非エンジニアがChatGPT / LLMを数式なしで解説してみる|Yuichiro.ito@Finatext(フィナテキスト)

                  先日、社内でChatGPT / LLMを活用した実証実験をしていたら、一部感動するほど結果が出たことで、今更ながら俄然興味を持ってしまいました。 これからビジネスユースケースを考えていくうえで、「本質的にどういうものなのか」を理解しておくことがとても大切だと思い、改めてChatGPT / LLMの基本的な仕組みを整理してみました。 私みたいな文系で行列や統計はわからないけど、もう少し根本的なところを理解しておきたい!という方に是非です。 それでは、GPTをはじめとするLLM(大規模言語モデル)がどのような背景から生まれてきたのかを振り返りながら、LLMの特徴を理解していきましょう!(最後に参照したおススメの動画・記事を貼っていますので、それだけでも是非ご覧ください。) 1. ベースは、ディープラーニングを用いた自然言語処理モデル2015年頃、日本でも"AI"がバズワードになり、ディープラー

                    文系非エンジニアがChatGPT / LLMを数式なしで解説してみる|Yuichiro.ito@Finatext(フィナテキスト)
                  • OpenAI APIのFine-tuningを試してみる | DevelopersIO

                    手順 トレーニングデータを準備してアップロードする 新しいFine-tuningされたモデルをトレーニングする Fine-tuningモデルを使用する ドキュメントに沿って行っていくので、APIの利用はOpenAIのCLIを使って実行してきます。 以下のコマンドでインストール。・ pip install --upgrade openai openaiのAPI keyを環境変数にセットします。 export OPENAI_API_KEY="<OPENAI_API_KEY>" サンプルとして、ゲーム内のとある名称がスキルなのか爆発なのか分類させてみます。 chatGPTではこのように間違った回答を返していたので、正しい情報を学習させてみます。 1. トレーニングデータを準備してアップロードする トレーニングデータは、GPT-3に言いたいことを教える方法です データセットの準備 に書いてあるベス

                      OpenAI APIのFine-tuningを試してみる | DevelopersIO
                    • GPT×松尾研発AIの威力 コンタクトセンターで34%減った業務とは

                        GPT×松尾研発AIの威力 コンタクトセンターで34%減った業務とは
                      • GPTで「できること」を増やすための3つのアプローチを非エンジニア向けにまとめてみた 〜プラグインとAPIとファインチューニング|遠藤太一郎

                        GPTで「できること」を増やすための3つのアプローチを非エンジニア向けにまとめてみた 〜プラグインとAPIとファインチューニング 最近、とにかく話題が尽きないChatGPTやLLM(大規模言語モデル)。 毎日のように“できること”の情報がどんどんと更新されているので、追いかけるだけで精一杯!という方も多いのではないでしょうか。かくいう自分も相当インプットしているつもりですが、いまだに全容を掴みきれていません。 そこで今回は、自分自身の整理も兼ねながら、ChatGPTでプロンプト開発をする際の全体像をまとめてみました。 ※プロンプト:GPT等のLLMに対する入力文ないしはコマンドのこと チャット上でのプロンプトエンジニアリングはもちろん、pluginやAPI、LangChain、プロンプトの評価、さらにはファインチューニングまでテーマを広げてまとめています。 エンジニアにとどまらず、Chat

                          GPTで「できること」を増やすための3つのアプローチを非エンジニア向けにまとめてみた 〜プラグインとAPIとファインチューニング|遠藤太一郎
                        • GPT-4 は高度情報処理技術者試験(午前I)に合格する - kurainの壺

                          GPT-4は医師国家試験に合格するという研究結果が発表されて話題だったので、我々も馴染み深い IPA の試験にGPT-4は合格できるのか試してみた。 高度情報処理技術者試験の 午前I に限って言えば合格しているので、レポートをこちらに置いておく。 github.com まとめ 高度情報処理技術者試験の共通科目である午前I に 合格できる解答(正答率6割を超える)をGPT-4は生成する GPT-3.5 では合格できない。GPT-4 の賢さが際立つ ちなみに図表読み取り問題は入力できないので、すべて不正解扱いした やりかた IPA の Webサイトから、2022年度秋試験の午前I問題のPDFを取得 (PDF) Google Docs の OCR 機能でテキスト取得 手でコピペして整形 整形したファイルは こちら にある OpenAI の API に問い合わせて解答を取得。スクリプトはこちら。

                            GPT-4 は高度情報処理技術者試験(午前I)に合格する - kurainの壺
                          • ChatGPTを探す旅に出させていただきます | DevelopersIO

                            文書の数が多い場合、単語の種類(ボキャブラリ)も多くなり単語の次元が大幅に増えていきます。 一方、一つの文書に含まれる単語の数には限りがあるため、これは全体として疎行列になります。 また、単語が各次元として扱われますが、文書ごとの出現順序など、単語間での関連性を示す情報は抜け落ちたものとなります。 それに対して低次元(通常数百次元程度)の密な行列で単語の意味を定義する方法があります。 これは、「分散表現」や「埋め込み表現」と言われるものになっております。 この表現を獲得するため手法は様々なものがありますが、ここではWord2Vecを紹介します。 元論文 : Efficient Estimation of Word Representations in Vector Space 具体的な実装についての解説 : word2vec Parameter Learning Explained Wor

                              ChatGPTを探す旅に出させていただきます | DevelopersIO
                            • GPT-3.5世代のオープンな言語モデルを調べてみた - Qiita

                              GPT-3.5世代のオープンな言語モデルを調べてみました。 本稿では以下の特徴をもって「GPT-3.5世代」の言語モデルと定義しました。 ChatGPT等(text-davinci-003、gpt-3.5-turbo)の登場した2022年11月以降に登場 GPT-3と同様にテキスト生成ができる言語モデル GPT-3(text-davinci-003等)を主なベンチマークにしたり、学習に利用したりしている 「オープンな言語モデル」としていますが、本稿では以下いずれかを満たしていればオープンな言語モデルとします。一般的なオープンソース・ソフトウェアの定義等とは少し異なります。 学習済モデルが公開されている 学習データと学習用ソースコードが公開されており、学習済モデルの再現が可能である GPT-3.5世代のオープンな言語モデルの特徴 本稿で紹介するGPT-3.5世代のモデルには、以下のような特徴

                                GPT-3.5世代のオープンな言語モデルを調べてみた - Qiita
                              • GPT-1→GPT-2→GPT-3→GPT-3.5→ChatGPT→GPT-4までの進化の軌跡と違いをまとめてみた|スタビジ

                                当サイト【スタビジ】の本記事では、昨今のAIの進化のきっかけになっているGPTシリーズについてまとめていきたいと思います。GPT-1から始まりGPT-2、GPT-3、そしてChatGPTであるGPT-3.5、GPT-4と進化してきました。この進化の軌跡と違いについて解説していきます。 こんにちは! データサイエンティストのウマたん(@statistics1012)です! この記事では最近のAIブームの火付け役になったGPTシリーズについて簡単にまとめていきたいと思います。

                                  GPT-1→GPT-2→GPT-3→GPT-3.5→ChatGPT→GPT-4までの進化の軌跡と違いをまとめてみた|スタビジ
                                • GPTの仕組みと限界についての考察(2.1) - conceptualization

                                  全3回のシリーズパート2の本記事では、GPTの能力と可能性をAttention/Transformerの仕組みをふまえて考察します。 というつもりでしたが、凄く長くなってしまったのでパート2は以下の3回に分けようと思います。 (2.1)各技術の定性的な説明(本記事) (2.2)Transformerのアルゴリズム詳細 (2.3)GPTの能力と可能性について 2.1 各技術の定性的な説明 自然言語の構造を考えてみる まず我々が使う言語についてちょっと振り返るところから話を始めましょう。 文や文章は、おおもとのデータである文字から始まって、単語、文節、句、節、文、文章、さらにその上の意味、という風に階層的な構造を持っていると我々は概念的に認識してますよね。 構文の階層 そして、各階層や階層間には、文法や語法といった言葉のルールがあります。 深層学習はその名の通り、層を深くしたニューラルネットワ

                                    GPTの仕組みと限界についての考察(2.1) - conceptualization
                                  • GitHub - Yue-Yang/ChatGPT-Siri: Shortcuts for Siri using ChatGPT API gpt-3.5-turbo & gpt-4 model, supports continuous conversations, configure the API key & save chat records. 由 ChatGPT API gpt-3.5-turbo & gpt-4 模型驱动的智能 Siri,支持连续对话,配置API key,配置系统prompt,保存

                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                      GitHub - Yue-Yang/ChatGPT-Siri: Shortcuts for Siri using ChatGPT API gpt-3.5-turbo & gpt-4 model, supports continuous conversations, configure the API key & save chat records. 由 ChatGPT API gpt-3.5-turbo & gpt-4 模型驱动的智能 Siri,支持连续对话,配置API key,配置系统prompt,保存
                                    • 大規模言語モデルで変わるMLシステム開発

                                      GPTはじめ大規模言語モデルの登場により、MLシステム開発にもパラダイムシフトが起こっています。流れが速すぎてやや混沌としてきたので、プロンプトエンジニアリングの考え方をはじめとした新しい概念について有用な引用と共に交通整理をしてみました。 今から始めたい人はまずこれを読むと、どんな点に配慮すべきかがざっくり分かるかと思います。

                                        大規模言語モデルで変わるMLシステム開発
                                      • GPT-4を利用した長文原稿自動生成プログラムの紹介|IT navi

                                        以下の記事は、アウトライン及び原稿の自動生成プログラムによって作成したものです。 通常、GPT-4で長い文章を作成する場合は、最初に全体のアウトラインを作成し、部分ごとに分割して文章を生成して、最後に全体を統合する必要がありますが、このプログラムは、その手順を一括でできるようにしたものです。プログラムは記事の後に紹介します。 第1章: AIの浸透と今後のビジネスへの影響1. はじめにa. AIの重要性と現代ビジネスへの適応 近年、人工知能(AI)の急速な発展とその浸透がビジネス界に大きな影響を与えています。今や、AI技術は製造業からサービス業、さらには情報産業まで幅広く利用されており、企業が生き残るためには、この新技術に適応し実用化しなければならない時代となっています。そこで、本章ではこれまでのAI技術の進化とその局面を明らかにし、今後のビジネスに与える影響について検証します。 b. AI

                                          GPT-4を利用した長文原稿自動生成プログラムの紹介|IT navi
                                        • ChatGPTとLangChainで何でもできるAIを作る - Qiita

                                          この記事は記事投稿キャンペーン_ChatGPTの記事です。 以下は、個人開発した最新のものになります. CreateToolAGI:ChatGPTとLangChainで何でもできるAI はじめに こんにちは、fuyu-quantです. 今回はLangChainという「大規模言語モデルを使いこなすためのライブラリ」の紹介とその機能を発展させるために作った新しいライブラリlangchain-toolsの説明およびその可能性について共有したいと思います. LangChainの機能であるtoolを使うことで,プログラムとして実装できるほぼ全てのことがChatGPTなどのモデルで自然言語により実行できるようになります.今回は自然言語での入力により機械学習モデル(LightGBM)の学習および推論を行う方法を紹介します. 記事に誤り等ありましたらご指摘いただけますと幸いです。 (※この記事の「Chat

                                            ChatGPTとLangChainで何でもできるAIを作る - Qiita
                                          • 秀まるおのホームページ(サイトー企画)-HmChatGPT35Turbo v1.04 【秀丸とOpenAI/ChatGPT3.5の連携】

                                            ■秀丸エディタ と OpenAI/ChatGPT3.5 Turbo を連携するためのコンポーネント - 詳細情報 https://秀丸マクロ.net/?page=nobu_tool_hm_chatgpt35turbo - 動作環境 秀丸エディタ 8.98 以上 - .NET 6.0 デスクトップランタイム x64 | x86 (必要なのは片方ですが、通常はx86とx64の両方入れるのが良いです) - OpenAIのAPI KEYが必要です https://秀丸マクロ.net/?page=nobu_tool_hm_chatgpt35turbo_apikey - 更新情報 https://秀丸マクロ.net/?page=nobu_tool_hm_chatgpt35turbo_update

                                            • GPTの仕組みと限界についての考察(1) - conceptualization

                                              GPT4が登場してChatGPTが盛り上がってますね。 本記事は、GPT(を支えるTransformerという仕組み)をChatGPTユーザにとって分かりやすく説明し、その能力と限界についての見通しをよくしよう、という趣旨になります。 少し長くなりそうなので、全部で記事を3回に分けようと思います。 (1)大まかな背景と概要:本記事 (2)GPTの能力と可能性:実際の使用例とTransformerの仕組みを踏まえて説明 (3)GPTの限界と未来展望:Transformerの仕組みが持つ限界と研究の進展を予想 GPT3と4の違い: トークン長とは何か? まずここから話を始めます。GPT-3は、パラメータ数が750億個(850GBの容量を食う)でトークン長が4097(GPT-3.5)でした。GPT-4は、パラメータ数は非公開でトークン長は32768ですので、ちょうど8倍になります。 さて、トーク

                                                GPTの仕組みと限界についての考察(1) - conceptualization
                                              • 高橋恒一 on Twitter: "GPTでAI界隈が沸騰している。開発者も含めて誰も急激な性能向上の理由を理解出来ていない。普段は半年や1年で古くなるような時事ネタはあまり呟かないことにしているが、このところの動きがあまりに早く、未来に向けての不確実性が高まってい… https://t.co/1BCs8cXavs"

                                                GPTでAI界隈が沸騰している。開発者も含めて誰も急激な性能向上の理由を理解出来ていない。普段は半年や1年で古くなるような時事ネタはあまり呟かないことにしているが、このところの動きがあまりに早く、未来に向けての不確実性が高まってい… https://t.co/1BCs8cXavs

                                                  高橋恒一 on Twitter: "GPTでAI界隈が沸騰している。開発者も含めて誰も急激な性能向上の理由を理解出来ていない。普段は半年や1年で古くなるような時事ネタはあまり呟かないことにしているが、このところの動きがあまりに早く、未来に向けての不確実性が高まってい… https://t.co/1BCs8cXavs"
                                                • 【山田祥平のRe:config.sys】 誰が書いて誰が読む

                                                    【山田祥平のRe:config.sys】 誰が書いて誰が読む
                                                  • Rootport💰🍹🍑 on Twitter: "「GPT-3と会話できるだけの広告だらけのアプリ」が数十万DLされているのを見て、「これが…世間…ッ!!」ってなった。 OpenAIの公式サイトで使えば無料で広告もない(ただし少しレスポンスが遅い)のだけど、入り口が英語だし電話… https://t.co/9jAH8xfo8h"

                                                    「GPT-3と会話できるだけの広告だらけのアプリ」が数十万DLされているのを見て、「これが…世間…ッ!!」ってなった。 OpenAIの公式サイトで使えば無料で広告もない(ただし少しレスポンスが遅い)のだけど、入り口が英語だし電話… https://t.co/9jAH8xfo8h

                                                      Rootport💰🍹🍑 on Twitter: "「GPT-3と会話できるだけの広告だらけのアプリ」が数十万DLされているのを見て、「これが…世間…ッ!!」ってなった。 OpenAIの公式サイトで使えば無料で広告もない(ただし少しレスポンスが遅い)のだけど、入り口が英語だし電話… https://t.co/9jAH8xfo8h"
                                                    • [速報]マイクロソフト、ChatGPTベースの「Microsoft 365 Copilot」を発表。AIがExcelの数字を分析しグラフ化、PowerPointを自動生成、長いメールを要約など

                                                      [速報]マイクロソフト、ChatGPTベースの「Microsoft 365 Copilot」を発表。AIがExcelの数字を分析しグラフ化、PowerPointを自動生成、長いメールを要約など マイクロソフトはオンラインイベント「The Future of Work: Reinventing Productivity with AI」を開催し、Microsoft 365にChatGPTベースのAI機能を組み込んだ「Microsoft 365 Copilot」を発表しました。 Microsoft 365 Copilotは今後数カ月以内にWordやExcel、PowerPoint、Outlook、Teamsなどすべてのプロダクティビティ製品群に搭載される予定。利用料金やライセンス形態などは今後発表予定とのこと。 デモで紹介されたMicrosoft 365 Copilotの主なポイントをまとめま

                                                        [速報]マイクロソフト、ChatGPTベースの「Microsoft 365 Copilot」を発表。AIがExcelの数字を分析しグラフ化、PowerPointを自動生成、長いメールを要約など
                                                      • [速報]マイクロソフト、自然言語で誰でもアプリケーション開発が可能になる「Copilot in Power Automate」「Copilot in Power Apps」発表

                                                        [速報]マイクロソフト、自然言語で誰でもアプリケーション開発が可能になる「Copilot in Power Automate」「Copilot in Power Apps」発表 マイクロソフトはローコードでスマートフォン用の業務アプリケーションを開発する「Power Apps」と、CRMなどの既存の業務アプリケーションを組み合わせて新たな業務アプリケーションを開発できる「Power Automate」にChatGPTベースのAIを組み込んだ「Copilot in Power Apps」および「Copilot in Power Automate」を発表しました。 いずれも自然言語でCopilotに作りたいアプリケーションの内容を伝えると自動的にアプリケーションが生成される機能を備えており、プログラマだけでなく、あらゆるビジネスマンがアプリケーションを開発できるようになると期待されます。 これ

                                                          [速報]マイクロソフト、自然言語で誰でもアプリケーション開発が可能になる「Copilot in Power Automate」「Copilot in Power Apps」発表
                                                        • パナ子会社、“GPT”利用の独自AIアシスタントを全社員に 漏えい防ぎつつ生産性向上へ

                                                          パナソニックグループのパナソニックコネクト(東京都中央区)は3月16日、大規模言語モデル「GPT-3.5」をベースにしたAIアシスタント「ConnectGPT」を国内の全社員向けに提供していると発表した。生産性向上が目的で、2月17日から導入しているという。 ConnectGPTは、クラウドサービス「Microsoft Azure」上で米OpenAIのサービスが使える「Azure OpenAI Service」を活用して開発した。社員はイントラネット上からサービスにアクセスし、テキストベースで質問ができる。 入力した情報は一定時間が過ぎたら消去し、米Microsoftによる二次利用もないという。開発に利用したAzure OpenAI Serviceは、ユーザーからの申請があった場合はデータを記録しない形での利用に応じることを明記している。一定の基準を満たした顧客から申し出があった場合、ログ

                                                            パナ子会社、“GPT”利用の独自AIアシスタントを全社員に 漏えい防ぎつつ生産性向上へ
                                                          • 非エンジニアだけどGPT-4でアプリ作ってみた 経験ゼロでも欲しい機能ができちゃった

                                                            発表以来、IT業界を騒がせる次世代大規模言語モデル「GPT-4」。さまざまな業界で「本気でAIに仕事を奪われるのでは」と話題だ。コードを瞬時に生成できることから、ITエンジニア間でも「廃業になりそう」「未経験からエンジニアになるハードルが高くなる」などの声がSNSで見られる。 とはいえ、「AIに仕事を奪われる」言説はことあるごとに唱えられすぎて信ぴょう性が薄くなってきている。「どうせまた大言壮語でしょ」と思いつつ、GPT-4でアプリを作れるか試してみたら、できてしまった。IT系Webメディアで記者をしている身ではあるが、エンジニアとして経験があるわけではなく、プログラミングも素人同然だ。そんな記者でもできてしまったのだ。 「画像をまとめてjpgに変換」 困りごとを解決してみた 今回作ったのは、「指定のファイル内にある画像を全てJPEGに変換するアプリ」だ。記者は画像をITmedia NEW

                                                              非エンジニアだけどGPT-4でアプリ作ってみた 経験ゼロでも欲しい機能ができちゃった
                                                            • ChatGPTの精度を上げる、あらゆる質問の最後に置く「命令」 優秀な壁打ち相手を作る、「チャットAI力」の高め方

                                                              クリエイターに出会ったり、もっとファンになったり、noteで創作をつづけたくなるようなイベントを開催する「noteイベント」。今回は「チャットAI使いこなし最前線」をテーマに、黎明期からチャットAIを活用しているnote CXOの深津貴之氏が登壇しました。こちらの記事では、ChatGPTユーザーの悩みを解決するプロンプトなどが語られました。 ChatGPTユーザーの悩みを解決するプロンプト 徳力基彦氏(以下、徳力):まず今日はChatGPTの使い方をしっかり覚えていただきたいと思います。ここで「深津式汎用プロンプト」。 深津貴之氏(以下、深津):僕は1個1個、個別の例を出すのはあんまり好きではないです。さっき言ったように原理原則を1個理解すれば、全部その原理原則から引っ張れる方向が好きですね。 なので今日も、細かいプロンプトを出すよりは、だいたいあなたの悩みのすべてを解決するプロンプトを1

                                                                ChatGPTの精度を上げる、あらゆる質問の最後に置く「命令」 優秀な壁打ち相手を作る、「チャットAI力」の高め方
                                                              • 一番星はての開発ブログ

                                                                まえがき 2023年も終わりなので「2023年 一番星はてのコメント10選」みたいな記事を書こうと思い、とりあえずスター数の多かったコメントを集計していました。 集計自体はすぐ終わったのですが、はての以外の人でもこれ知りたいなあと思い、サービスとして公開することにしました。 というわけで、ブックマークについたスターを眺められるサイト「はてなギャラクシー(β版)」をリリースしました。 はてな★ギャラクシー どういうサイトなのか サイト自体を見てもらった方が早いので、一番星はてののページを見てみます。 一番星はてののブックマーク firststar_hateno - はてな★ギャラクシー 一番星はてののはてのギャラクシーのページ ユーザーの全ブックマークを取得し、スター数の降順に並べます。 あとはキーワードと日付によるブックマークの絞り込みができます。 キーワードはブックマークコメントとブック

                                                                  一番星はての開発ブログ
                                                                • GPT-3のトークン数制限(text-davinci-003: This model's maximum context length is 4097 tokens) - 朝から昼寝

                                                                  概要 API経由でGPT-3を利用していると、"This model's maximum context length is 4097 tokens,…"というエラーが返ってきました。 本記事では、このエラーについてまとめておきます。 本記事の目的 GPT-3のAPIを使用する際のトークン数制限について理解する。 概要 エラー概要 GPT-3のtext-davinci-003モデルは4097トークンまで 対処は、promptを短くするか、max_tokensを小さくすること 補足事項 トークンとは Tokenizerの動作確認ツール 扱えるトークン数の上限(context length) 制限値は4097か4096か4000か まとめ 参考情報、関連記事等 エラー概要 Googleスプレッドシートにて、GAS経由でGPT-3のAPIにリクエストした際、以下のエラーが返ってきました。 Thi

                                                                    GPT-3のトークン数制限(text-davinci-003: This model's maximum context length is 4097 tokens) - 朝から昼寝
                                                                  • LlamaIndexを使ってAWS CDKの記事200本以上でインデックスを作りOpenAIに質問してみた | DevelopersIO

                                                                    OpenAIのAPIに対してLlamaIndexを使い特定の分野の記事を取り込むと正しい答えが返ってくるのか確認してみました。本記事ではAWS CDKを対象に調査しています。 はじめに CX事業本部アーキテクトチームの佐藤智樹です。 今回はタイトルの通り、LlamaIndexを使いOpenAIにAWS CDKに関する記事(DevelopersIOのもの)を200本以上でインデックスを作り、どのような返答が返ってくるのか試してみました。LlamaIndexとは、簡単な実装で個別のインデックスを作成しOpenAIのモデルに対して問い合わせできるインターフェースです。詳細は以下をご確認ください。 インデックスの対象となる記事 AWS CDKのタグが付いている記事で、2021年12月21日から2023年3月8日までの合計240本の記事を対象にします。こちらで1つのAWS CDKというジャンルに対し

                                                                      LlamaIndexを使ってAWS CDKの記事200本以上でインデックスを作りOpenAIに質問してみた | DevelopersIO
                                                                    • クリエイターの時代

                                                                      クリエイターの時代 2023.03.11 Updated by Ryo Shimizu on March 11, 2023, 15:48 pm JST ChatGPTが流行り過ぎている。 来週にはGPT-4が出るという話になっていて、しかもGPT-3は1750億パラメータであるのに対し、GPT-4は100兆パラメータと言われている。 普通に考えて単位が桁違いにおかしいのだが、そもそもそんなに巨大なニューラルネットワークが学習できてしまったことも驚きだが、実用的に使うためには信じられないくらい大規模な機械が必要になる。 まだ出てもいないGPT-4を警戒しても仕方ないので、むしろGPT-4が出る前の今のタイミングだからこそ、敢えて「ChatGPTブームの終わりは近い」と予測してみたい。 なぜか? 第一に、ChatGPTは、簡単に使え過ぎてしまう。 朝思いついて昼には新しいアプリができてしまう。

                                                                        クリエイターの時代
                                                                      • ChatGPT APIの運用で必須のツール: LangChainの使い方まとめ (1) - Qiita

                                                                        こんにちは!逆瀬川( https://twitter.com/gyakuse )です! 今日はLangChainの使い方について書いていこうと思います。 ChatGPT API の欠点について LangChainについて書く前に、ChatGPT APIの使いづらい部分をまとめていきたいと思います。 これを考えておくと、なぜLangChainが必要であるかということがわかり、さらに今後どのような機能が搭載されうるか/されるべきかということがわかります。 ChatGPT APIを使う際の難しい部分は一般的に以下のようにまとめられます。 プロンプトの共通化や管理が面倒くさい 最近の事実をベースとした質問-応答が難しい 最大の入出力合計が4096トークン(約3000字)であるため、長い情報を持たせることがしづらい ExcelやCSV、PDF等を直接読み込ませることができない 出力の処理のチェーンの

                                                                          ChatGPT APIの運用で必須のツール: LangChainの使い方まとめ (1) - Qiita
                                                                        • GPTが出した回答の確からしさを見えるようにしてみる - Taste of Tech Topics

                                                                          皆さんこんにちは。データサイエンティストチームYAMALEXのSsk1029Takashiです。 YAMALEXは Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 この記事はGPTでチャットボットを作ってみるシリーズ第3弾です。 第1弾と第2弾もぜひご覧ください。 acro-engineer.hatenablog.com acro-engineer.hatenablog.com 第1弾では、GPTになるべく正確な回答をさせるために、回答の情報を持つ文書を検索し、それをもとに回答を生成するという内容を試しました。 文書をもとに回答を生成することで比較的正確な回答を取得することができました。 ただし、この回答も必ずしも正確な回答とは限らないので、どれくらい信頼していいのかを自動で判定する仕組みが欲しくなります。 今回は第1弾のシ

                                                                            GPTが出した回答の確からしさを見えるようにしてみる - Taste of Tech Topics
                                                                          • 「予想外のヒットに驚いた」 チャットGPT開発者が語る 「革命」の舞台裏

                                                                            The inside story of how ChatGPT was built from the people who made it 「予想外のヒットに驚いた」 チャットGPT開発者が語る 「革命」の舞台裏 オープンAIが2022年11月に公開したチャットGPTは、瞬く間に爆発的なヒットとなった。だが、開発者にとっては予想外だったようだ。オープンAIでチャットGPTの開発に携わった4人に、開発に至った経緯や、公開後の世間からの反応、今後の構想について聞いた。 by Will Douglas Heaven2023.03.09 37 27 サンフランシスコに拠点を置く人工知能(AI)企業、オープンAI(OpenAI)が2022年11月下旬にひっそりとチャットGPT(ChatGPT)を公開した時、社内で期待している人はほとんどいなかった。クチコミでのメガヒットに備えていた者など、オープンA

                                                                              「予想外のヒットに驚いた」 チャットGPT開発者が語る 「革命」の舞台裏
                                                                            • ChatGPTとMakeを使ってGmailの返信を自動化してみる - Qiita

                                                                              こんにちは!逆瀬川 ( https://twitter.com/gyakuse ) です。 今日はメールの自動返信作成をMake(ツール連携サービス)を使ってやってみたいと思います。 ※MakeとはZapierやIFTTTと同じIPaaS系のサービスです。 参考 概要 Gmailに来た新着メールをMakeとChatGPT APIを使い返信文章候補を作成します。 そもそもできそうかの確認 OpenAIのChatGPT API Playgroundを使って、これができるか確認してみます。 なお、text-davinci-003はChatGPT API(gpt-3.5 turbo)の10倍の価格なので、今回は用いません 追記: 脳死で書いてたのであれですが、MakeはまだChatGPT APIに対応していないのでtext-davinci-003を使います。 以下のようなプロンプトを実行しました

                                                                                ChatGPTとMakeを使ってGmailの返信を自動化してみる - Qiita
                                                                              • ChatGPT Bot を new Slack Platform で動かしてみた - LayerX エンジニアブログ

                                                                                こんにちは、LayerX の Enabling Team の suguru です。 ChatGPT のAPIが公開されて、ものすごい勢いで Slack へのインテグレーションが始まりそうです。 API 利用する場合は、会話の内容が学習などに使われることはない、ということで、安心して利用できそうです。 LayerX でも、早速ChatGPTが応答してくれるボットを作ってみることにしました。 今回は new Slack Platform を使うことにしました。new Slack Platform は、Slack Cloud と呼ばれる Slack 側のサーバーでコードを動かす機能があります。Slack にコードをデプロイするだけで、サーバーの準備等をしなくても ChatGPT を自分たちの SlackBot として埋め込むことができます。 注 - new Slack Platform は執筆時

                                                                                  ChatGPT Bot を new Slack Platform で動かしてみた - LayerX エンジニアブログ
                                                                                • GPT for Excel, Word, Google Sheets and Docs

                                                                                  Clean lists with GPT for Excel and SheetsThe GPT_FILL function of our GPT extension for Excel and Google Sheets offers an easy and intuitive solution to quickly clean and standardize any list of data. You only need to show it a few examples of what you want, and it will replicate the same format throughout your data set - perfect for mass cleaning! Generate tags with GPT for Excel and SheetsGPT fo

                                                                                    GPT for Excel, Word, Google Sheets and Docs