並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 2442件

新着順 人気順

llmの検索結果281 - 320 件 / 2442件

  • 「社内のアレ分からん、教えてAI」を支援 Microsoftの“自社版ChatGPT作成サービス”、外部データ取り込み機能が正式リリース

    米Microsoftは2月20日(現地時間)、大規模言語モデル「GPT-4」などのAPIを同社のクラウド上で使える「Azure OpenAI Service」の外部データ連携機能「On Your Data」を正式リリースした。これまではパブリックプレビュー版として提供していた。 On Your Dataはいわゆる「RAG」(大規模言語モデルに外部データベースの情報を参照させ、機密情報を基にした回答などを可能にする仕組み)の構築に向けた機能。ローカルやAzure上のストレージに保管するテキストファイルやPDF、PowerPointファイルを、GUIの操作でGPT-4などに参照させられる。 参照できるのはクラウド型検索サービス「Azure Cognitive Search」のインデックス(検索対象)にインポートしたデータや、Azureのストレージ「Blob Storage」に格納したデータなど

      「社内のアレ分からん、教えてAI」を支援 Microsoftの“自社版ChatGPT作成サービス”、外部データ取り込み機能が正式リリース
    • GPT-4Vができることをまとめてみた - 電通総研 テックブログ

      こんにちは。ISID 金融ソリューション事業部の若本です。 先日、GPT-4から発展し、画像も扱うことができるGPT-4 with vision(GPT-4V)が発表されました。GPT-4Vは大規模マルチモーダルモデル(LMMs: Large multimodal models)と呼ばれるAIモデルの一種であり、GPT-4の入力として「画像」を拡張したものになります。 今日は Microsoft Researchの論文[1]を中心に、Open AIの発表したSystem Card[2]も踏まえ、GPT-4Vでできることや苦手とすること、そして実用上の制限について解説します。 GPT-4Vの特徴 ① 画像とテキストを入力にできる GPT-4Vでは、GPT-4のテキスト入力に加えて画像も入力することが可能になりました。 画像は複数枚入力することが可能であり、かつ、画像とテキストを任意に交互に組

        GPT-4Vができることをまとめてみた - 電通総研 テックブログ
      • ヘルプデスク業務を楽にするためにSlackとGitHub Projectを同期するヘルプデスクツールを自作した - MNTSQ Techブログ

        こんにちは。MNTSQの下村です。 コーポレートエンジニアとして、MNTSQ従業員の生産系向上施策等を実施していたりします。 ( Twitterもやっている のでフォローしてもらえると嬉しいです! ) 本日は社員からの問い合わせ業務 いわゆる ヘルプデスク業務について効率化するためのツールを自作した 話を書いてみます。 この記事の要約 一人目コーポレートエンジニアとして参画したがヘルプデスク業務が非効率だったので効率化した。 質問に対して特定のemojiを押すとGitHub ProjectsのItemを作成するようにした。 SlackスレッドのコメントとGitHub ProjectsのItemを双方向同期するようにした。 Azure OpenAIも利用して効率化した。 きっかけ 2023年5月からMNTSQの一人目コーポレートエンジニアとして参画しています。 情報システムを色々と整備してい

          ヘルプデスク業務を楽にするためにSlackとGitHub Projectを同期するヘルプデスクツールを自作した - MNTSQ Techブログ
        • 生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」

          生成AIのトップ研究者らが東京で創業したAIベンチャー「Sakana AI」が、生成AI開発の新たな手法を開発したと3月21日に発表した。従来は人間が手動で設計し、多くの計算資源を使っていたが、同社の手法では設計を機械が自動で行い、“ほぼ無視できるレベル”の計算資源で開発が可能になるという。この手法で開発した日本語基盤モデルをGitHubで公開した。 同社が提案したのは「進化的モデルマージ」という手法。公開されているさまざまな基盤モデル(生成AIを含む、大規模なデータセットによる事前学習で各種タスクに対応できるモデルのこと)を組み合わせて新たなモデルを作る「マージ」に、進化的アルゴリズムを適用したものだ。 マージ自体は現在の基盤モデル開発で使われている手法で、モデルの“神経回路”(アーキテクチャ)の中に別のモデルの神経回路の一部を組み入れたり、入れ替えたり、神経同士のつながりやすさ(重み)

            生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」
          • ChatGPT入門 (社内勉強会の資料を公開) - LayerX エンジニアブログ

            こんにちは!たかぎわ @shun_tak と申します!バクラク事業で機械学習・データ領域のマネジメントを担当しています! 先日社内でChatGPT入門の勉強会を実施して、参加者からは好評だったので、資料をこちらで共有させてください!わりと社内資料そのままコピペです。 背景 羅針盤15を体現した例 早速やってみよう! ChatGPTを触り倒す Step1 : ChatGPTを開く (0min) Step2 : まずは挨拶してみよう! (5min) Step3 : Google検索の代わりに使ってみよう! (5min) 他のトピックも聞いてみよう! Step4 : ペルソナ設定済みのGPTを使ってみよう! (10min) まずはConsensusというGPTを使ってみましょう! ChatGPT Teamに加入していると、社内の人が作ったGPTにアクセスできます! わいまつさんが作った企業リサー

              ChatGPT入門 (社内勉強会の資料を公開) - LayerX エンジニアブログ
            • 【未経験者大歓迎】RAG超入門:AWSが推奨するRAGを体験するハンズオン - Qiita

              2024/5/5更新:生成AIに興味を持った方向け、続編を投稿しました。 「Qiitaに聞いた!!」をAmazon Bedrockで作った!(Claude 3でRAG) タイトルはふざけてますが、プロンプトエンジニアリングにより本投稿と同様の内容を行う解説をしています。 (BedrockのClaude 3モデルと、Google検索を使った構成です) 生成AIはとても注目度が高い技術ですが、すこしとっつきにくいところがあるかもしれません。新しいモデルや活用手法が毎日のように登場し、ウォッチし続けるのはかなり大変です。 タイミングを逃して入門できていない方向けに、 とりあえず作って体感してみよう というコンセプトで、ハンズオン記事を作成しました。🎉🎉🎉 ハンズオンの内容は「RAG」です。RAGは生成AIの活用法としてよく出てくるキーワードです。ハンズオンでは、ただのRAGではなく最先端の

                【未経験者大歓迎】RAG超入門:AWSが推奨するRAGを体験するハンズオン - Qiita
              • Reader API

                Our world-class embeddings for search, RAG, agent systems.

                  Reader API
                • 面倒な「ダミーデータ作成」をChatGPTに任せる〜Code Interpreterの限界までリアリティを追求した作業の記録【イニシャルB】

                    面倒な「ダミーデータ作成」をChatGPTに任せる〜Code Interpreterの限界までリアリティを追求した作業の記録【イニシャルB】
                  • GPT-4にWebサイトを“自律的に”ハッキングさせる方法 AI自身が脆弱性を検出、成功率70%以上【研究紹介】

                    米UIUC(イリノイ大学アーバナ・シャンペーン校)に所属する研究者らが発表した論文「LLM Agents can Autonomously Hack Websites」は、大規模言語モデル(LLM)を用いたAIエージェントに、自律的にWebサイトをハッキングさせる攻撃手法を提案した研究報告である。LLMエージェントがWebサイトに存在する脆弱性を事前に知らなくても、自動検知してのハッキングが可能となる。 ▲自律型LLMエージェントを使ったWebサイトのハッキングの模式図 keyboard_arrow_down 研究内容 keyboard_arrow_down 研究結果 Webサイトを自律的にハッキングするようLLMエージェントを活用するには、エージェントのセットアップと、目標に向けてのプロンプトによる指示という2つのステップが必要である。エージェントによるハッキングでは、関数呼び出し、文書

                      GPT-4にWebサイトを“自律的に”ハッキングさせる方法 AI自身が脆弱性を検出、成功率70%以上【研究紹介】
                    • OpenAI Platform

                      Explore resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's developer platform.

                        OpenAI Platform
                      • 社内版 ChatGPT を構築し、社内の ChatGPT 利用を促進した話 - メドピア開発者ブログ

                        SRE の田中 @kenzo0107 です。 社内版 ChatGPT を構築し、社内の ChatGPT 利用を促進した話です。 社内版 ChatGPT が必要だった理由 以下要望を実現する為です。 秘匿情報をクローズドな環境で OpenAI にポストしたい 社員誰もが最新のモデルやバージョンで高精度、且つ、パフォーマンスの高い ChatGPT を利用したい 構成 - Web 版 社内 ChatGPT Web サービスは AWS に配置 ALB を会社毎に分けて Google 認証する *1 ECS から Azure API Management 経由で Azure OpenAI Service に問い合わせ API Management は Azure OpenAI Service の監査ログを取得する為に配置している *2 Azure 側ではネットワークセキュリティグループで AWS N

                          社内版 ChatGPT を構築し、社内の ChatGPT 利用を促進した話 - メドピア開発者ブログ
                        • 「ExcelでChatGPTを再現するシート」が想像以上に素晴らしかった (1/4)

                          先日本サイトで「めちゃくちゃ重いけど動くぞ!Excelで『GPT-2』を再現したスプレッドシート」というニュースを執筆したのだが、実際に触ってみたところ想像以上に素晴らしかったのでレポートする。 「Spreadsheets-are-all-you-need」とは 記事で紹介した「Spreadsheets are all you need」とは、Excelの標準的なスプレッドシート機能を使ってGPT2(ChatGPTの先祖)のフォワードパス(入力から出力までのプロセス)をExcelの中で完全に実装したものだ。 と言ってももちろんExcel内で「ChatGPT」的な会話ができるわけではない。ChatGPTの心臓である大規模言語モデル(LLM)のごくごく基本的な機能をシミュレートできるだけだ。 本シートの説明文には「開発者でない人でも本物のLLMが内部でどのように機能しているのかを、最小限の抽象

                            「ExcelでChatGPTを再現するシート」が想像以上に素晴らしかった (1/4)
                          • AutoGPTを徹底解剖!使い方をご紹介!【2023年4月25日最新版】

                            一般的にChatGPTを使用する際には、プロンプトを入力して進めていく必要がありますが、プロンプトの作成は意外に難しいと感じる方も多いかもしれません。 AutoGPTは、プロンプトを作成せずとも自動的に行うべきことを提案してくれる、という驚くべき機能を持っています。AutoGPTは誰でも利用可能です。 今回PROMPTYでは、そんな話題のAutoGPTの特徴や始め方、使い方を解説していきます。 エンジニアではない方でも導入できるよう、できるだけわかりやすく説明しますので、1つずつ手順を踏みながら試してみてください。 ブックマーク必須!PROMPTYとは 国内最大級のChatGPTなどの生成AIのプロンプトエンジニア専門メディアです。 「プロンプトのテンプレ集」「生成AIの開発・活用ノウハウ」「海外の時事ニュース」など幅広い内容を取り揃えています。 一般的なニュースなどでは取り扱っていない最

                              AutoGPTを徹底解剖!使い方をご紹介!【2023年4月25日最新版】
                            • 各種Prompt Engineeringの日本語実例集(Zero-CoT、mock、ReAct、ToT、Metacog、Step Back、IEPなど) - Qiita

                              各種Prompt Engineeringの日本語実例集(Zero-CoT、mock、ReAct、ToT、Metacog、Step Back、IEPなど)Python機械学習入門ChatGPTLLM CoT、Zero-CoT、ToT、mock、ReAct、Step Back、Metacog、IEPなど、各種Prompt Engineering手法の概説と、日本語での実際のプロンプト例をまとめた記事です。 各種Prompt Engineering手法を日本語で実装したい方向けの記事となります。 本記事で取り扱う手法は以下の通りです。 項目数が多いため、記事右下の目次リンクもご活用ください。 本記事の内容 01: 通常のPrompt 02: Few-shot Learning 03: CoT(Chain of Thought) 04: 出力形式の指定方法 05: Zero-shot CoT(≒

                                各種Prompt Engineeringの日本語実例集(Zero-CoT、mock、ReAct、ToT、Metacog、Step Back、IEPなど) - Qiita
                              • 書評:GitHub Copilot とのペアプロ TDD でつくるローグライク RPG - 若くない何かの悩み

                                本記事は「GitHub Copilot とのペアプロ TDD でつくるローグライク RPG」の書評です。題名にローグライクRPGとあるのでゲーム開発の本なのかなと思ってしまいますが、本題は仕様の端的な表現をもたないシステムを LLM を使って真っ当に開発する方法の解説だと思います。タイトルにローグライクRPGと書いていることでゲーム開発に興味のない人の興味を失わせてしまい損をしている気がします。 背景 最近の LLM の流行を受けて私も Chat-GPT や GitHub Copilot といった LLM を開発で利用しています。端的に仕様を表現できるシステムは LLM に質問して実装を得る方が自分で実装するより圧倒的に速く正確であるという感想を抱いています。ただ端的に仕様を表現できるシステムばかりではありません。えてして価値を生んでいるシステムというのは端的な仕様の表現が存在しないもので

                                  書評:GitHub Copilot とのペアプロ TDD でつくるローグライク RPG - 若くない何かの悩み
                                • 2023年の話題&ベストセラーをまとめて紹介! Udemyで今年最大級のセール開催、生成AIなど対象講座が1,200円より - はてなニュース

                                  世界中を席巻した生成AIは、ブームに終わることなく着実に社会のさまざまな場面で利用が進んでいます。特にChatGPTを始めとするテキスト生成はビジネスシーンですぐに適用可能なケースも多く、使いこなす人とそうでない人には大きな差が生じつつあります。 使いこなすノウハウにも一定の知見が貯まっており、定番となるセオリーが整理されています。正しく学ぶことができれば一気にキャッチアップできるでしょう。Udemyの講座でも、ChatGPTを使いこなすプロンプトの作法や、アプリケーションにLLM(大規模言語モデル)を組み込むノウハウ、AIをより深く知る数学知識などに人気があります。 この記事では、2023年11月17日(金)に始まるブラックフライデーセール(24日まで)、そして26日(日)から2日間のサイバーセールの対象になる人気講座から、エンジニアリングやビジネスシーンにおいて読者の成長を助けてくれる

                                    2023年の話題&ベストセラーをまとめて紹介! Udemyで今年最大級のセール開催、生成AIなど対象講座が1,200円より - はてなニュース
                                  • 「機械学習で時系列予測はできるのか」論議がTransformerと共に帰ってきた - 渋谷駅前で働くデータサイエンティストのブログ

                                    先日、こちらのポストをお見かけしました。 AI技術開発部の高橋が社内勉強会の資料「時系列予測にTransformerを使うのは有効か?」を公開しました。 論文Are Transformers Effective for Time Series Forecastingの紹介を中心に、時系列予測について解説しています。ぜひご覧ください。https://t.co/LplxTT8b1d pic.twitter.com/nUXb4bGiQ3— GO Inc. AI Tech (@goinc_ai_tech) 2023年9月28日 なるほど、NN全盛というかNN一択の時代にあっては時系列予測もNNでやるのが当たり前になったのだなという感想でした。大昔「沖本本」で古典的な計量時系列分析を一通り学んだ身としては隔世の感がありますが、これもまたNN時代の趨勢なのでしょう。 なお、元論文2点は上記リンクから辿

                                      「機械学習で時系列予測はできるのか」論議がTransformerと共に帰ってきた - 渋谷駅前で働くデータサイエンティストのブログ
                                    • 壁のためのAIと卵のためのAI

                                      人工知能学会全国大会 (JSAI 2023) 学生企画「人は人工知能に何を求めるのか」

                                        壁のためのAIと卵のためのAI
                                      • 日本初の挑戦〜食べログによるChatGPTプラグイン開発の舞台裏 - Tabelog Tech Blog

                                        はじめに 食べログのメディア領域でサービス開発のエンジニアリングマネージャーをしている関戸です。 2023年5月8日のプレスリリースの通り、食べログの新たな取り組みとして2023年5月6日にChatGPTプラグインの提供を開始しました。さまざまなメディアで日本初の試みとして取り上げられています。 ChatGPTプラグイン提供の前提として、プラグイン開発をするためには、(当時は)ウェイトリストに登録し、開発者として招待される必要がありました。招待が届いたアカウントでは、プラグインの動作確認や開発ができるようになります。ウェイトリストに登録後、いつ招待が届くか分からない状況でした。 食べログではアカウントに招待が届いた当日に動作確認して、公開申請を提出しました。 OpenAI社によるChatGPTプラグインの発表後、どこよりもいち早くプラグインを提供することを目指して、必要な調整を事前に進めて

                                          日本初の挑戦〜食べログによるChatGPTプラグイン開発の舞台裏 - Tabelog Tech Blog
                                        • 日本語画像言語モデル「Japanese InstructBLIP Alpha」をリリースしました — Stability AI Japan

                                          Stability AIは日本語向け画像言語モデル「Japanese InstructBLIP Alpha」を一般公開しました。入力した画像に対して文字で説明を生成できる画像キャプション機能に加え、画像についての質問を文字で入力することで回答することもできます。 Japanese InstructBLIP Alpha「Japanese InstructBLIP Alpha」は、先日公開された日本語向け指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を拡張した、画像を元にしたテキストが生成されるモデルです。 「Japanese InstructBLIP Alpha」は、高いパフォーマンスが報告されている画像言語モデルInstructBLIPのモデル構造を用いております。少ない日本語データセットで高性能なモデルを構築するために、モデルの一部を大規模な

                                            日本語画像言語モデル「Japanese InstructBLIP Alpha」をリリースしました — Stability AI Japan
                                          • 話題のローコードツール「Dify」で生成AIアプリを作ってみよう! - Qiita

                                            Difyって何? 少し前から話題の、プログラミングなしで生成AIアプリケーションを開発できるOSSです。 「Dify すごい」 でSNSを検索すると、驚き屋さんがみんな驚いています。このゴールデンウィークはAmazon BedrockとDifyの話題でもちきりでしたね。 元々は「GPTビルダーのOSS版ね。はい解散」という感じだったのですが、最近追加された「ワークフロー」機能がすごく便利のようです。 ちょっとしたアプリなら、ローコードで簡単に作れてしまうとのこと。 最近は自分でPCやサーバー準備して動かさなくても、SaaS版が公式から準備されたようです。無料プランもあります。 やってみた サインアップ 公式サイト右上の「Get Started」からサインアップします。 GitHub連携すると、いきなり開発画面に辿り着きました!いいUX。 「(いち?)から作成」よりワークフローを作ってみまし

                                              話題のローコードツール「Dify」で生成AIアプリを作ってみよう! - Qiita
                                            • ローカルPCでセルフホストできてGithub Copilotのように使えるコーディング補助AI「tabby」、Dockerイメージありなので早速使ってみたレビュー

                                              Github Copilotのコーディングアシスト性能は目を見張るものがありますが、データを社外に持ち出せないなどの都合で泣く泣く使用を諦めている人も多いはず。そうした状況のなか、ローカルのPCでセルフホスト可能なコーディングアシストツール「tabby」が登場しました。 GitHub - TabbyML/tabby: Self-hosted AI coding assistant https://github.com/TabbyML/tabby tabbyはDockerから簡単に起動することが可能とのこと。Dockerのインストール方法については下記の記事の前半に詳しく記載してあります。 画像生成AI「Stable Diffusion」にたった数枚のイラストから絵柄や画風を追加学習できる「Dream Booth」が簡単に使える「Dreambooth Gui」レビュー - GIGAZINE

                                                ローカルPCでセルフホストできてGithub Copilotのように使えるコーディング補助AI「tabby」、Dockerイメージありなので早速使ってみたレビュー
                                              • LLMのファインチューニング で 何ができて 何ができないのか|npaka

                                                LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ

                                                  LLMのファインチューニング で 何ができて 何ができないのか|npaka
                                                • 「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用

                                                  LayerX 部門執行役員・AI・LLM事業部長 中村龍矢 2024/5/8 生成AI Conf

                                                    「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用
                                                  • 「文章生成AI利活用ガイドライン」を策定|東京都

                                                    2023年08月23日 デジタルサービス局 「文章生成AI利活用ガイドライン」の策定について この度、東京都職員向けに、文章生成AIの利活用に関するガイドラインを下記のとおり策定しましたので、お知らせいたします。 本ガイドラインの職員への浸透を徹底するとともに、全局で約5万人を対象に利用できる環境を整備しましたので、今後業務への活用を進めてまいります。 記 1 目的 文章生成AIに関する利用上のルールを定めるとともに、効果的な活用事例を掲載し、職員が新しい技術を正しく使いこなすことで、行政サービスの質を高め、都政のQOS(Quality of service)向上へとつなげていく。 2 概要 別紙1(PDF:721KB)参照 (1)文章生成AIの特徴 (2)利用環境 (3)利用上のルール (4)効果的な活用方法 (5)今後の展望 3 公表資料 デジタルサービス局ホームページから御覧いただけ

                                                    • 「GPT-4」が無料で使える?--「新しいBing」と「Poe」の賢い使い方

                                                      先週の話はもう過去の話。AI技術の進化は日進月歩で、GPT-4の圧倒的なアウトプットの質の向上をはじめ、私たちが感じる未来への期待感は高まるばかりです。 GPT-4は、文脈理解や複雑なタスクへの対応力がGPT-3に比べて向上しており、ますます多くのことができるようになっています。 プロンプトだけでHTMLファイルのコーディングを依頼したところ、そこそこ面倒くさい要求なのに、ちゃんと動いて私自身も驚きました。 また、GPT-4のデモでは、手書きのスケッチからコーディングを行うことができるなど、これからの進化はまさに「今、試してみる価値あり」といえるでしょう。 しかし「有料だしなぁ・・・」とまだGPT-4を体験したことがない方も多いのではないでしょうか? そこで今回は、実際にGPT-4を使いながら、その魅力と「無料」で体験できる2サービスを使いこなすコツをお伝えしたいと思います。 記事作成の相

                                                      • 東工大など、日本語に強い大規模言語モデル「Swallow」を無償で公開

                                                        東京工業大学(東工大)と産業技術総合研究所(産総研)の両者は12月19日、現在公開されている中で、日本語に強い生成AIの基盤である「大規模言語モデル」(LLM)としては最大規模となる「Swallow」を、米・MetaのLLM「Llama 2」の日本語能力を拡張することで構築し、Webサイト「TokyoTech-LLM」にて一般公開したこと、またオープンで商用利用も可能なことを共同で発表した。 同成果は、東工大 情報理工学院 情報工学系の岡崎直観教授、同・横田理央教授、産総研の共同研究チームによるもの。今回、東工大は主にデータの語彙拡張によるモデル学習・推論効率の改善に取り組み、産総研はモデル構築に必須である大規模計算資源としてAI橋渡しクラウド(ABCI)を提供すると同時に、主に継続学習によるモデルの日本語能力の改善を担当したとしている。 産総研のAI橋渡しクラウド「ABCI」(出所:東工

                                                          東工大など、日本語に強い大規模言語モデル「Swallow」を無償で公開
                                                        • AIを操る「プロンプトエンジニア」がAIによって駆逐されつつある

                                                          「プロンプトエンジニアリング」は、意図した通りの出力を得るためにAIへの命令文であるプロンプトを調整する行為です。これまで、プロンプトエンジニアリングは人間のエンジニアによって行われてきましたが、プロンプトの作成自体にもAIを使用した方がパフォーマンスが向上するという研究結果が発表されました。 [2402.10949] The Unreasonable Effectiveness of Eccentric Automatic Prompts https://arxiv.org/abs/2402.10949 AI Prompt Engineering Is Dead - IEEE Spectrum https://spectrum.ieee.org/prompt-engineering-is-dead 2022年の秋にChatGPTが登場して以来、プロンプトを工夫することでAIの出力を改善し

                                                            AIを操る「プロンプトエンジニア」がAIによって駆逐されつつある
                                                          • ChatGPTを用いた複雑な処理を視覚的に組み立てられるノードエディター「ChatGraph」を使ってみた

                                                            「ChatGraph」はChatGPTのノードエディターで、ノードを組み合わせることで複雑なシステムを視覚的に構築できます。ChatGPTの高い性能を有意義に使えそうだったので、実際に使ってみました。 【ChatGPTのノードエディタ】ChatGraph - β - uynet - BOOTH https://booth.pm/ja/items/4728147 まずは、上記のリンクからChatGraphの配布ページにアクセスして「無料ダウンロード」をクリックします。今回は無料版を選択しましたが、ChatGraphには画像生成機能が付いたお布施版も存在しています。 ZIPファイルをダウンロードしたら、Windows標準機能や対応ソフトで解凍します。 ZIPファイルを解凍するとChatGraphの実行ファイル「graph.exe」が現れるのでダブルクリックして起動します。 ChatGraphの

                                                              ChatGPTを用いた複雑な処理を視覚的に組み立てられるノードエディター「ChatGraph」を使ってみた
                                                            • Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表

                                                              LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft ResearchのAI研究チームが、プレプリントサーバーのarXivで、Transformerベースのモデル「phi-1」を発表しました。このモデルは、パラメーター数がGPT-3.5の100分の1以下の13億しかないにもかかわらず、テスト用データセット・HumanEvalでGPT-3.5を上回る成績を収めたことが報告されています。 [2306.11644] Textbooks Are All You Need https://doi.org/10.48550/arXiv.2306.11644 Microsoft Releases 1.3 Bn Parameter Language Model, Outperforms LLaMa https://analyticsindiama

                                                                Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表
                                                              • OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ

                                                                OpenAIはGPT-3の次の研究を始めています. 世間がGPT-3のデモに湧き上がる中,OpenAIはScaling Lawに関する2本の論文をひっそりと公開しました. Scaling Lawを一言で説明するなら「Transformerの性能はたった3つの変数のべき乗則に支配されている」というものです. Scaling Lawはそれ単体だけなら興味深い話で終わるかもしれません.実際に英語圏でもあまり話題にあがっていません.しかし,この法則の本当の凄さに気づいている研究者もいて,なぜ話題にならないのか困惑しています. I am curious why people are not talking more about the OpenAI scaling law papers. For me, they seem very significant. What I heard so far:

                                                                  OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ
                                                                • メタファー空間でGPT4に発散と抽象化をさせてから具体化する - 西尾泰和のScrapbox

                                                                  あるメタファーの空間において二つのメタファーの対比(B)についてGPT4に列挙(1)させ、それからその対比を抽象化(2)させる。その後、抽象化した対比を異なるドメインに応用して具体化(3)させた

                                                                    メタファー空間でGPT4に発散と抽象化をさせてから具体化する - 西尾泰和のScrapbox
                                                                  • フリーで使える日本語の主な大規模言語モデル(LLM)まとめ

                                                                    ありがとうございます! 実は私本人がそのモデルの構築に関わっているのですが、詳細はまだ言えない状況です...。 来年3月の言語処理学会年次大会(NLP2023)での続報をお待ちください!このモデルに関する論文が公開される予定です(一応それを待ってからこの記事にも掲載します)。 (私が書いたものではありませんが、現段階で公開できる情報をまとめた記事があります: https://note.com/utokyo_itc/n/nb18b2a753f23 )

                                                                      フリーで使える日本語の主な大規模言語モデル(LLM)まとめ
                                                                    • 速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)

                                                                      2024-02-27にarXiv公開され,昨日(2024-02-28)あたりから日本のAI・LLM界隈でも大きな話題になっている、マイクロソフトの研究チームが発表した 1ビットLLMであるが、これは、かつてB-DCGAN(https://link.springer.com/chapter/10.1007/978-3-030-36708-4_5; arXiv:https://arxiv.org/abs/1803.10930 )という「1ビットGANのFPGA実装」を研究していた私としては非常に興味をそそられる内容なので、論文を読んでみた。今回は速報として、その内容のポイントを概説したい。 論文情報 Ma, S. et al. (2024) ‘The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits’, arXiv [c

                                                                        速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)
                                                                      • OpenAI APIのファインチューニングの学習データのガイドライン|npaka

                                                                        以下の記事を元に、「OpenAI API」のファインチューニングの学習データのガイドラインをまとめました。 1. 学習データの書式ファインチューニングするには、単一の入力「プロンプト」とそれに関連する出力 「コンプリーション」 のペアで構成される学習データが必要です。これは、1回のプロンプトで詳細な手順や複数の例を入力するような、ベースモデルの使用方法とは大きく異なります。 「学習データの書式」のガイドラインは、次のとおりです。 ・プロンプトが終了してコンプリーションが開始することをモデルに知らせるため、区切り記号 ("\n\n###\n\n"など) でプロンプトを終了する必要があります。区切り記号は、プロンプトの他の場所で使用されない文字列を指定します。 ・コンプリーションが終了することをモデルに知らせるため、停止記号 ("\n"、"###"など)でコンプリーションを終了する必要がありま

                                                                          OpenAI APIのファインチューニングの学習データのガイドライン|npaka
                                                                        • 全てAIで生成した架空アルバムのバンドに架空ライターがインタビューした結果、新曲が生まれた。Suno AIがおもしろすぎる(CloseBox) | テクノエッジ TechnoEdge

                                                                          そこで調子に乗って、このアルバムリリース直後に、バンドメンバーに日本の音楽誌がインタビューしたという想定で、ChatGPTに受け答えしてもらいました。その結果がこちら。 The Midnight Odyssey - 「The Odyssey of Echoes」リリース直後のインタビューインタビュアー: 鷹野隼人(Cosmic Prog Chronicles) ――まずは、素晴らしいアルバム「The Odyssey of Echoes」のリリースおめでとうございます。このアルバムを通じて表現したかった主なテーマは何ですか? ジェイク・ハーパー (リードボーカル & ギター)ありがとうございます。このアルバムでは、時間と空間を超えた旅、そして内面の探求をテーマにしています。私たちは、聴き手に音楽を通じて冒険を体験してもらいたいと考えています。 アルバム「The Odyssey of Echo

                                                                            全てAIで生成した架空アルバムのバンドに架空ライターがインタビューした結果、新曲が生まれた。Suno AIがおもしろすぎる(CloseBox) | テクノエッジ TechnoEdge
                                                                          • 生成AI時代におけるUXデザイン | 生成AIをフル活用したUX設計手法&生成AI時代のユーザー体験の変化について

                                                                            ChatGPTやStable Diffusionなどの生成AIが急速に発展し、社会全体が大きく変化しようとしている。 UXデザインのプロセスや、UX自体のあり方も当然革新されていく。 今回はそうした生成AIによってUXがどう変化していくかを、具体的なメソッドや未来洞察といった具体・抽象を行き来しながら話していく。 1. 生成AIを活用したUXデザインプロセス どのようにGenerative AIを活用すれば、UXデザインのプロセスをよりなめらかに、効率的にすることができるのか? 2. 生成AIでUX自体がどう変化するか Generative AIの発展によって、プロダクトにおけるユーザー体験のあり方はどのように変化していくのか? 3. AI時代のデザイナー/PdM生存戦略 AI時代に、デザイナーやプロダクトマネージャーなどの個人はどのように強みを磨いていけばいいのか? ▼ スピーカーTwi

                                                                              生成AI時代におけるUXデザイン | 生成AIをフル活用したUX設計手法&生成AI時代のユーザー体験の変化について
                                                                            • ChatGPTでデータ分析、生成AIで「文系社員」が「分析官」に

                                                                              ◎「文系社員」でもデータ分析できる生成AIマニュアル by OUTPUT CAMP meets AI◎ 「イベントアンケートを取ったが、集計する時間がない」「販売データを収集したものの、分析手法が分からない」 文系のビジネスパーソンにとってデータ分析は、「やったほうが良さそうだが後回しにしてしまう」プラスアルファの仕事だ。大義名分がなければ他部署に依頼するのも難しい。 そこで頼れる相棒となるのが、生成AI(ジェネレーティブAI)だ。 AIプロピッカーの三菱総合研究所・比屋根 一雄さんはこう予測する。 「みんながミクロな意思決定に生成AIを使って、少しでも良い意思決定ができるようになると、世の中全体がデータに基づく合理的で無駄の少ない仕事をできるようになる。壮大なことを言えば、低いと言われている日本の生産性が、少しでも上がるのではないかという期待もしています。」 では、具体的にどの生成AIツ

                                                                                ChatGPTでデータ分析、生成AIで「文系社員」が「分析官」に
                                                                              • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

                                                                                もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

                                                                                  LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
                                                                                • 米OpenAI「公表しないで……」 ブラックボックスであるLLMの中身を“盗む”攻撃 米Googleらが発表

                                                                                  このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 米Google DeepMindなどに所属する研究者らが発表した論文「Stealing Part of a Production Language Model」は、米OpenAIのGPT-4や米GoogleのPaLM-2などのクローズドな大規模言語モデル(LLM)から、モデルの一部を盗み出す攻撃を提案した研究報告である。言語モデルのAPIへのクエリを通じて、低コストでモデルの内部構造に関する情報を抽出することに成功した。 GPT-4やPaLM-2などの最先端AIモデルは、APIを通じて一般ユーザーに提供されているが、内部構造や学習に使用され

                                                                                    米OpenAI「公表しないで……」 ブラックボックスであるLLMの中身を“盗む”攻撃 米Googleらが発表