並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 875件

新着順 人気順

RAGの検索結果1 - 40 件 / 875件

  • クレディセゾンでDXを進めてきた5年間を振り返る|小野 和俊

    はじめにクレディセゾンに来てちょうど5年が経ったので、これまでの取り組みをまとめてみようかと思う。書き進めていくうちにとても長くなってしまったので、1年につき3トピックに絞ってあとはカットした。それでも5年分なこともありかなり長くなったので、目次から各トピックに飛んでもらえればと思う。社内の関係者も読むかもしれず、「自分のやったことが載ってない!」と思うこともあるかもしれないが、内製開発案件だけでも53案件あり全部載せるととんでもない量になるので許してほしい。それから、振り返ってまとめると退職すると勘違いされるかもしれないけれど、退職するわけではありません! 2019年:ゼロからのスタート1-1. 内製開発エンジニア募集を始める「日本のそれなりの規模の事業会社の中に、内製開発チームを立ち上げることはできるのだろうか?」 2019年3月、クレディセゾンに来たばかりの私にとってはこの質問への答

      クレディセゾンでDXを進めてきた5年間を振り返る|小野 和俊
    • 【保存版】勝手に決めよう!全国47都道府県を代表するお土産はこれだ! - ぐるなび みんなのごはん

      こんにちは。ヨッピーです。 ちょっとこの、美味そうな物体を見てください。 これ、アップルパイなんですけど、中にリンゴが丸ごと一個ゴロンって入ってるんですよ。 そんでまあ、汚い顔したオッサンが食べるじゃないですか。 優勝!!!!! はい。今日は一日中こんな感じの事をやります。 僕は仕事柄日本全国あちこちに行くのですが、その時にいつも「お土産、何を買えば良いんだ……?」ってなるんですよね。 だって、どういうお土産が美味しくて人気があるのか、現地に住んでないからわかんないじゃないですか。そういう選択肢を知ってる方がお土産を選ぶ時も絶対楽しい! そこで、47都道府県で人気のあるお土産を探るべくこういう記事を書いたところ、全国津々浦々から死ぬほどご意見を頂戴いたしました。 はてなブックマーク、ブログのコメント欄、LINE@の返信、Twitter、FBでのコメントなどなど合計1,000件以上! 「〇〇

        【保存版】勝手に決めよう!全国47都道府県を代表するお土産はこれだ! - ぐるなび みんなのごはん
      • 料理が上手くなる方法を知りたいです。 私は10年以上家でご飯を作っているのですが、未だにレシピが無いと美味しいご飯が作れません。レシピがあっても失敗することがあります。 思った通りの味にならなかったり、調味料をしっかり入れても薄味になってしまったり、食材の食感が悪くなったり…。 料理が上手くならないのは、やはりセンスがないのでしょうか。 レシピが無くても美味しいご飯を作れるようになりたいので、アドバイスを頂けたら嬉しいです。 | mond

        料理が上手くなる方法を知りたいです。 私は10年以上家でご飯を作っているのですが、未だにレシピが無いと美味しいご飯が作れません。レシピがあっても失敗することがあります。 思った通りの味にならなかったり、調味料をしっかり入れても薄味になってしまったり、食材の食感が悪くなったり…。 料理が上手くならないのは、やはりセンスがないのでしょうか。 レシピが無くても美味しいご飯を作れるようになりたいので、アドバイスを頂けたら嬉しいです。 レシピ無しでおいしい料理を作れるようになるためのファーストステップは、基準を知ることです。 例えば味付けに関して言えば、料理の仕上がりの塩分濃度が1%に着地するのが基準だったり、和食の場合、醤油と味醂は1:1が基本、味醂を砂糖に置き換えるならその1/3、など。 例えばこの2点だけを応用して「大根の煮物」を作るとしたら、500gの大根と500gのダシを火にかけて、途中で

          料理が上手くなる方法を知りたいです。 私は10年以上家でご飯を作っているのですが、未だにレシピが無いと美味しいご飯が作れません。レシピがあっても失敗することがあります。 思った通りの味にならなかったり、調味料をしっかり入れても薄味になってしまったり、食材の食感が悪くなったり…。 料理が上手くならないのは、やはりセンスがないのでしょうか。 レシピが無くても美味しいご飯を作れるようになりたいので、アドバイスを頂けたら嬉しいです。 | mond
        • 世界一わかりみの深いコンテナ&Docker&Kubernetes入門

          RAG構築のためのAzure OpenAI Serviceリファレンスアーキテクチャ詳解/wakarimiragarchitecture

            世界一わかりみの深いコンテナ&Docker&Kubernetes入門
          • ChatGPT - LLMシステム開発大全

            ChatGPTとLLMシステム開発について纏めた187ページ資料です。 2024/04 名称を改め資料を大幅にアップデートしました! 今後も随時更新していきます。 データサイエンティスト協会での発表動画はこちら。 https://youtu.be/l9fpxtz22JU Build Japanでの発表はこちら。 https://youtu.be/UEZzx6a005g?si=Ot8EO2bv8yhQQEcy 2023/7/28 体裁修正、余計なページを削除 2023/12/12 RAG、API仕様、モデルのページを追加。また情報を最新化。 2024/04 名称を改め資料を大幅にアップデートしました! 1. LLM - GPTの全体像 LLM - GPT とは何なのか ~チャットAIを例にした動作イメージ~ 大規模言語モデル(LLM)が持つ基礎能力 デジタルツールとLLMの連携 GPTに関す

              ChatGPT - LLMシステム開発大全
            • 【連載】WSL2、Visual Studio Code、DockerでグッとよくなるWindows開発環境 〜 その1:まずは概要 〜 | SIOS Tech. Lab

              ◆ Live配信スケジュール ◆ サイオステクノロジーでは、Microsoft MVPの武井による「わかりみの深いシリーズ」など、定期的なLive配信を行っています。 ⇒ 詳細スケジュールはこちらから ⇒ 見逃してしまった方はYoutubeチャンネルをご覧ください 【5/21開催】Azure OpenAI ServiceによるRAG実装ガイドを公開しました 生成AIを活用したユースケースで最も一番熱いと言われているRAGの実装ガイドを公開しました。そのガイドの紹介をおこなうイベントです!! https://tech-lab.connpass.com/event/315703/ こんにちは、サイオステクノロジー武井(Twitter:@noriyukitakei)です。今回は、第4回シリーズで、WSL2、Visual Studio Code、Docker、Windows Terminalなどの

                【連載】WSL2、Visual Studio Code、DockerでグッとよくなるWindows開発環境 〜 その1:まずは概要 〜 | SIOS Tech. Lab
              • 【連載】世界一わかりみが深いコンテナ & Docker入門 〜 その5:Dockerのネットワークってどうなってるの? 〜 | SIOS Tech. Lab

                ◆ Live配信スケジュール ◆ サイオステクノロジーでは、Microsoft MVPの武井による「わかりみの深いシリーズ」など、定期的なLive配信を行っています。 ⇒ 詳細スケジュールはこちらから ⇒ 見逃してしまった方はYoutubeチャンネルをご覧ください 【5/21開催】Azure OpenAI ServiceによるRAG実装ガイドを公開しました 生成AIを活用したユースケースで最も一番熱いと言われているRAGの実装ガイドを公開しました。そのガイドの紹介をおこなうイベントです!! https://tech-lab.connpass.com/event/315703/ こんにちは、サイオステクノロジー武井です。いよいよ佳境に入ってきた連載「世界一わかりみが深いコンテナ & Docker入門 」ですが、今回はDockerのネットワークです。 全7回シリーズでお届けする予定で、今回は第

                  【連載】世界一わかりみが深いコンテナ & Docker入門 〜 その5:Dockerのネットワークってどうなってるの? 〜 | SIOS Tech. Lab
                • (ネット)署名という仕組みに否を突き付けている人が多くて困惑している - 発声練習

                  以下のツイートのブックマークコメントの多くに困惑している。少なくともネット署名、広ければ署名という仕組みに否をつきつけている人がこんなに多いとは。ネット署名や署名の仕組みや目的からして本人確認は無理でしょ。 本オープンレターへの賛同において他人の氏名を勝手に使用する悪戯があったと判断したため、該当の氏名を削除しました。このような悪戯に対して強く抗議します。賛同した覚えがないのにお名前が掲載されている方はレターに追記したメールアドレスまでご連絡ください。https://t.co/waQ53XObZK— KOMIYA Tomone (@frroots) 2022年1月19日 b.hatena.ne.jp 批判が多い「女性差別的な文化を脱するために」の賛同者に賛同した覚えがないのに名前が載っているので困っている人や不快感がある人がいるのはわかる。そして、その人は賛同者から名前を削除してほしいと希

                    (ネット)署名という仕組みに否を突き付けている人が多くて困惑している - 発声練習
                  • ChatGPTに社内文書に基づいた回答を生成させる仕組みを構築しました - コネヒト開発者ブログ

                    はじめに はじめまして、8月にコネヒトに入社したy.ikenoueです。 突然ですがみなさん、生成AIは使っておりますでしょうか? ChatGPTやStable Diffusionといった代表的な生成AIの発表から約1年が経過し、そろそろブームも落ち着くかと思っていたのですが、つい先日もOpenAI DevDayにてChatGPTに関する様々なアップデートが発表されるなど、相変わらず目まぐるしい日々が続いていますね。 弊社における生成AIの活用状況はというと、以前に下記の記事にて、Slack上でChatGPTと会話できる環境を社内提供しているという取り組みをご紹介しました。 tech.connehito.com 本日は、上記の社内ツールに新たに追加した「社内文書の参照機能」についてご紹介します。 「社内文書の参照機能」の概要と開発動機 まずは「社内文書の参照機能」の概要と開発にいたった動機

                      ChatGPTに社内文書に基づいた回答を生成させる仕組みを構築しました - コネヒト開発者ブログ
                    • ChatGPTの10ヶ月と開発トレンドの現在地

                      9/28の #日本CTO協会 さんのイベントで登壇した資料を公開しました。 「ChatGPTの10ヶ月と開発トレンドの現在地」 開発のトレンドの最新情報をざっくり纏めています。 ・Prompt Engineering開発の現在地 ・RAG開発の現在地 ・Plugin開発の現在地 ・GPT-Vの登場と生成AI時代のこれからについて やや開発者寄りな内容なので、基礎を知りたい場合はAzure OpenAI大全も併せてご確認を。 (こっちも近々最新化します…) https://speakerdeck.com/hirosatogamo/chatgpt-azure-openai-da-quan

                        ChatGPTの10ヶ月と開発トレンドの現在地
                      • JP Contents Hub

                        AWS 日本語ハンズオン Amazon Web Services(AWS) の 日本語ハンズオンやワークショップを、カテゴリごとにまとめています。 右側の目次や、ヘッダー部分の検索ボックスから、各コンテンツにたどり着けます。 また、Ctrl + F や command + F を使ったページ内検索もご活用いただけます。 料金について ハンズオンで作成した AWS リソースは通常の料金が発生します。作成したリソースの削除を忘れずにお願いします。 もし忘れてしまうと、想定外の料金が発生する可能性があります。 画面の差異について ハンズオンで紹介されている手順と、実際の操作方法に差異がある場合があります。 AWS は随時アップデートされており、タイミングによってはハンズオンコンテンツが追いついていない事もあります。 差異がある場合、AWS Document などを活用しながら進めて頂けますと幸い

                          JP Contents Hub
                        • AIはどこまで無断で学習できるのか。~文化庁の生成AI論点整理(ガイドラインの素案)を読んで - フジイユウジ::ドットネット

                          今日、文化庁は生成AIと著作権保護についてのガイドラインとなる素案を提示しました。(2023/12/20時点。その後の状況については追記をお読みください。) 生成AIでなにが合法でどんなとき違法になるべきか、クリエイターや開発者、ビジネス系のひとなどが議論していますが、多くの生成AI周辺にいる人たち全員に関係あるガイドラインがいままさに検討されているわけです。 朝日新聞ではこう報じています。 文化庁は20日、文化審議会著作権分科会の法制度小委員会に、生成AI(人工知能)によるコンテンツの無断学習は、著作権法で著作権者の許諾が不要とされる「非享受目的」にあたらない場合があるとする「AIと著作権に関する考え方」の素案を示した。生成AIが記事や画像データなどを無断で利用する「ただ乗り」(フリーライド)に懸念の声が上がる中、現行法を厳格に解釈し、歯止めをかけたい考えだ。 朝日新聞デジタルより引用

                            AIはどこまで無断で学習できるのか。~文化庁の生成AI論点整理(ガイドラインの素案)を読んで - フジイユウジ::ドットネット
                          • 【Day 2】東大松尾研のLLM講座資料が公開されたから、詳しく読んでいくよ【備忘録】 - Qiita

                            自己紹介 データサイエンティストを目指して日々勉強している、慶應大学理工学部4年生(202.01.09時点) 取得資格、コンペ優勝経験など、リアルタイムの情報は👇👇👇をみてね X: @A7_data←普段はXで活動しています。ありがたいことに、フォロワーは6500人を超えました😌 プロフィールページ👇👇👇 X👇👇👇 Day2の概要 Day2のテーマは「Prompting and Augmented Language Model」ということで、LLMの活用法に焦点が当てられている。(学習済みLLMを追加学習なしで活用する技術について) 項目としては大きく3つ。 プロンプティングや文脈内学習とは何か プロンプティングによる性能改善方法 Augmented Language Modelの概要 LLMの使い方に焦点を絞っているので、今回の授業だけでも幅広い人に役立ちそう。 言語

                              【Day 2】東大松尾研のLLM講座資料が公開されたから、詳しく読んでいくよ【備忘録】 - Qiita
                            • 元モー娘・市井紗耶香 参院選に立憲民主から出馬へ 4児のママ「子育て世代の声届けたい」(スポニチアネックス) - Yahoo!ニュース

                              元「モーニング娘。」でタレントの市井紗耶香(35)が、来月の参院選に立憲民主党から比例代表候補として出馬することが24日、分かった。近く出馬会見を行う。関係者によると、市井は「子育て世代の若いお母さんたちの声を届けたい」と意気込みを話している。 【写真】美貌変わらず!35歳になった市井紗耶香 モー娘のメンバーとしてファンを魅了した市井が“第2のステージ”を国会に定めた。 党関係者によると、市井は「若いお母さんたちは何か問題があっても実際に声を上げることは少ない。声を上げることは決して恥ずかしいことではない。一歩踏み出す勇気を持ってほしいということを発信していきたい」と出馬を決意。母親と国会の橋渡し役となることを目指しているという。 4人の子供を育てるママ。日ごろから子供の安心・安全に関心が高かった市井について、党の別の関係者が耳にしたことから急接近。今月に入りトントン拍子で話が進んでいった

                                元モー娘・市井紗耶香 参院選に立憲民主から出馬へ 4児のママ「子育て世代の声届けたい」(スポニチアネックス) - Yahoo!ニュース
                              • OpenAI API の ファインチューニングガイド|npaka

                                1. ファインチューニングの利点ファインチューニングの利点は、次のとおりです。 (1) プロンプトよりも高品質な応答 (2) プロンプトに収まりきらないより多くの例の適用 (3) プロンプトの短縮によるトークン数 (コスト) の節約 (4) プロンプトの短縮による処理時間の短縮 モデルは膨大な量のテキストで事前学習されており、このモデルを効果的に利用するため、プロンプトに手順や応答の例を指定する手法が使われます。この例を使用してタスクの実行方法を示すことを「Few-Shot」と呼びます。 ファインチューニングで、プロンプトに収まりきらないより多くの例で学習することにより、さまざまなタスクでより良い結果を達成できるようになります。プロンプトに多くの例を指定する必要はなくなります。これによりトークン (コスト) が節約され、処理時間も短縮されます。 2. ファインチューニングの使用料金ファイン

                                  OpenAI API の ファインチューニングガイド|npaka
                                • サーバーレスの次はなんなんだ

                                  はじめに この記事は、同人誌サークル「めもおきば」から不定期刊行している技術解説本「めもおきばTecReport」に書いたものを公開用に再編集したものです。 ⇒ めもおきばTecReport 2023.12 この記事のほかにも「私もSecHack365に参加したい!」や、「2023年振り返りと2024年技術予想」としてこんなキーワードを取り上げているので、気になったらぽちっとしてください! メガクラウドと特化型クラウド/ハイパーバイザーのSoC化/ライセンスとクラウドベンダー/イベント駆動型API/LLM時代のAIペアプロ力/生活必需品としてのGPU・NPU/Passkey/ウェブアクセシビリティ/リアルイベントの再開 サーバーレスの次はなんなんだ サーバーレスと呼ばれる技術ムーブメントが盛り上がり始めて8年近くが経ちました。各クラウドベンダーのFaaS(Function-as-a-Ser

                                    サーバーレスの次はなんなんだ
                                  • (9/10 22:41追記) 「野党共通政策が酷すぎて~」に含まれるデマの検証

                                    id:fellfield です。例の記事 anond:20210909200622 すべてに反論する時間はないので、部分的に反論します。 安保法制などの違憲部分を廃止集団的自衛権は自国を守るものではなく、集団に属する他国を守るものです。自国を守るのは単なる自衛権ですよ。 増田が書いている「台湾サイドに立つ」が具体的に何を指しているか不明瞭だけれど、一般的には集団的自衛権を行使できる状態のほうが、他国からは「台湾サイドに立っている日本」と見做されると思います。もしも集団的自衛権がなければ、たとえ台湾が攻撃されていても日本は手出しできないわけです。言い換えれば、手出しできない日本に対して中国が攻撃する理由がなく、日本にとってはリスクが低いことになる。 そして集団的自衛権があれば、外国の戦争に日本が巻き込まれるリスクは高くなる。増田が書いている「集団的自衛権も行使できない日本が国を守るために~」

                                      (9/10 22:41追記) 「野党共通政策が酷すぎて~」に含まれるデマの検証
                                    • RAGの実案件に取り組んできた今までの知見をまとめてみた | DevelopersIO

                                      はじめに 新規事業部 生成AIチーム 山本です。 ChatGPT(OpenAI API)をはじめとしたAIの言語モデル(Large Language Model:以下、LLM)を使用して、チャットボットを構築するケースが増えています。通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができません。そのため、例えば社内システムに関するチャットボットを作成しようとしても、素のLLMでは質問に対してわからないという回答や異なる知識に基づいた回答が(当然ながら)得られてしまいます。 この問題を解決する方法として、Retrieval Augmented Generation(以下、RAG)という手法がよく使用されます。RAGでは、ユーザからの質問に回答するために必要そうな内容が書かれた文章を検索し、その文章をLLMへの入力(プロンプト)に付け加えて渡すことで、ユーザが欲しい

                                        RAGの実案件に取り組んできた今までの知見をまとめてみた | DevelopersIO
                                      • 【超入門】GPT Builderの使い方!【GPTs / ChatGPT】

                                        はじめまして、ますみです! 先日のOpenAI社の初めてのカンファレンスである「OpenAI Dev Day 2023」で発表されたGPT Builderがついに利用可能になりました! 上記の発表会にて、「自分で作ったGPTを公開して、たくさん他の人に利用されると、その利用量に応じて、収益がもらえる」という話は非常に話題を呼びました。 そこで、おそらく多くの方が「自分のGPTを作って、収益化したい!」「どうやって自分のGPTを作るのか知りたい!」と気になっている方が多いと思います! そこで、この記事では、自分のGPTを作るためのツールである「GPT Builderの使い方(始め方)」を徹底解説します! もしも自社のGPT開発の外注や相談をしたい方は、記事末尾のGoogleフォームよりお問い合わせいただければ、お力になります! また、「ChatGPT」や「OpenAI Dev Day」につい

                                          【超入門】GPT Builderの使い方!【GPTs / ChatGPT】
                                        • RAGの実装戦略まとめ - Qiita

                                          それでは以下、簡単なデモを含めながら個別に説明していきます。 1. ハイブリッドサーチ こちらは、性質の異なる複数の検索方式(例えばベクトル検索とキーワード検索)を組み合わせて検索精度を向上させる手法になります。 各検索方式単体の場合に比べ、性質の異なる検索方式を組み合わせ、ある種いいとこ取りをする事で、検索性能の向上が期待できます。 今回はBM25でのキーワードベースの類似度検索と通常のベクトル検索を組み合わせていきます。 BM25について簡単に説明しておくと、文脈や文章構造は完全に無視した上で、文書内の単語を全てバラバラに分割し、文書内の各単語の出現頻度と文書間におけるレア度を加味した特徴量を算出します。 つまり、特定の文書内の各単語の数をカウントしてヒストグラムを作れば、似たような文書には同じような単語がよく出るはずなので(同じようなヒストグラムの形になるので)、類似度が高くなる性質

                                            RAGの実装戦略まとめ - Qiita
                                          • GPT-4レベルの衝撃 PC内で使えるオープンLLM「Command R+」

                                            カナダのAIスタートアップCohereは4月4日(現地時間)、ビジネス向けに最適化された最新の大規模言語モデル(LLM)「Command R+」を発表した。 高度なRAG技術を採用 Cohereは、AI業界に変革をもたらしたTransformerモデルを提唱した論文「Attention is All You Need」の共同執筆者として知られるトロント大学の研究者Aidan Gomez氏らによって2019年に設立されたカナダのAIスタートアップ。 OpenAIと同様、LLMの開発に特化しており、企業向けにチャットボット、検索エンジンの最適化、要約サービス、自社AIモデルのAPIなどを提供している。 Command R+は、同社が3月に発表した「Command R」の後継となるモデルであり、Cohereが得意とする高い効率性と精度のバランスを重視したRシリーズの一部となる。 128K(12万

                                              GPT-4レベルの衝撃 PC内で使えるオープンLLM「Command R+」
                                            • ChatGPTで独自データを扱うためのエンべディング|緒方 壽人 (Takram)

                                              【2023/11/7追記】 OpenAI Dev Dayにて、開発者向けの大型アップデートが発表されました。この記事で紹介している手法は、Retrieval-Augmented Generation(RAG)と呼ばれてきましたが、今回のアップデートでコンテクスト長(やりとりできるテキストの長さの上限)がこれまでの8Kから128K(12万8千トークン)に大幅にアップするため、一般的な本の内容は1冊分丸ごと渡すことができるようになります。独自データベースとの連携という意味では、ここで紹介している手法も引き続き有効な手法ですが、API関連でも様々な機能が追加されているので、リリースやSam Altmanによるキーノートは要チェックです。 ChatGPTは、膨大な量のテキストを学習してはいますが、天気予報のような最新の情報や、ある特定の本の内容や、特定のサービスの詳細についてはじめから知っているわ

                                                ChatGPTで独自データを扱うためのエンべディング|緒方 壽人 (Takram)
                                              • RAGの性能を改善するための8つの戦略 | Fintan

                                                近年、OpenAIのGPT-4やGoogleのGemini、MetaのLLaMAをはじめとする大規模言語モデル(Large Language Model:LLM)の能力が大幅に向上し、自然言語処理において優れた結果を収めています[1][2][3]。これらのLLMは、膨大な量のテキストデータで学習されており、さまざまな自然言語処理タスクにおいて、タスクに固有なデータを用いてモデルをファインチューニングすることなく、より正確で自然なテキスト生成や、複雑な質問への回答が可能となっています。 LLM-jp-eval[4]およびMT-bench-jp[5]を用いた日本語LLMの評価結果。Nejumi LLMリーダーボード Neoより取得。 大規模言語モデルは近年急速な進歩を遂げていますが、これらの進歩にもかかわらず、裏付けのない情報や矛盾した内容を生成する点においては依然として課題があります。たとえ

                                                  RAGの性能を改善するための8つの戦略 | Fintan
                                                • ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について

                                                  Zero Waste, Radical Magic, and Italian Graft – Quarkus Efficiency Secrets

                                                    ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について
                                                  • 「社内のアレ分からん、教えてAI」を支援 Microsoftの“自社版ChatGPT作成サービス”、外部データ取り込み機能が正式リリース

                                                    米Microsoftは2月20日(現地時間)、大規模言語モデル「GPT-4」などのAPIを同社のクラウド上で使える「Azure OpenAI Service」の外部データ連携機能「On Your Data」を正式リリースした。これまではパブリックプレビュー版として提供していた。 On Your Dataはいわゆる「RAG」(大規模言語モデルに外部データベースの情報を参照させ、機密情報を基にした回答などを可能にする仕組み)の構築に向けた機能。ローカルやAzure上のストレージに保管するテキストファイルやPDF、PowerPointファイルを、GUIの操作でGPT-4などに参照させられる。 参照できるのはクラウド型検索サービス「Azure Cognitive Search」のインデックス(検索対象)にインポートしたデータや、Azureのストレージ「Blob Storage」に格納したデータなど

                                                      「社内のアレ分からん、教えてAI」を支援 Microsoftの“自社版ChatGPT作成サービス”、外部データ取り込み機能が正式リリース
                                                    • エンジニアリングマネージャーの理想と現実

                                                      NLP2024 参加報告LT ~RAGの生成評価と懇親戦略~ / nlp2024_attendee_presentation_LT_masuda

                                                        エンジニアリングマネージャーの理想と現実
                                                      • 【未経験者大歓迎】RAG超入門:AWSが推奨するRAGを体験するハンズオン - Qiita

                                                        2024/5/5更新:生成AIに興味を持った方向け、続編を投稿しました。 「Qiitaに聞いた!!」をAmazon Bedrockで作った!(Claude 3でRAG) タイトルはふざけてますが、プロンプトエンジニアリングにより本投稿と同様の内容を行う解説をしています。 (BedrockのClaude 3モデルと、Google検索を使った構成です) 生成AIはとても注目度が高い技術ですが、すこしとっつきにくいところがあるかもしれません。新しいモデルや活用手法が毎日のように登場し、ウォッチし続けるのはかなり大変です。 タイミングを逃して入門できていない方向けに、 とりあえず作って体感してみよう というコンセプトで、ハンズオン記事を作成しました。🎉🎉🎉 ハンズオンの内容は「RAG」です。RAGは生成AIの活用法としてよく出てくるキーワードです。ハンズオンでは、ただのRAGではなく最先端の

                                                          【未経験者大歓迎】RAG超入門:AWSが推奨するRAGを体験するハンズオン - Qiita
                                                        • Create Your Own ChatGPT ChatBOT With ALL Your Business Content

                                                          🔥 CustomGPT.ai Outperforms OpenAI in Industry RAG Benchmark. 🔥

                                                            Create Your Own ChatGPT ChatBOT With ALL Your Business Content
                                                          • Reader API

                                                            Our world-class embeddings for search, RAG, agent systems.

                                                              Reader API
                                                            • LLMのファインチューニング で 何ができて 何ができないのか|npaka

                                                              LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ

                                                                LLMのファインチューニング で 何ができて 何ができないのか|npaka
                                                              • 【連載】世界一わかりみが深いコンテナ & Docker入門 〜 その1:コンテナってなに? 〜 | SIOS Tech. Lab

                                                                ◆ Live配信スケジュール ◆ サイオステクノロジーでは、Microsoft MVPの武井による「わかりみの深いシリーズ」など、定期的なLive配信を行っています。 ⇒ 詳細スケジュールはこちらから ⇒ 見逃してしまった方はYoutubeチャンネルをご覧ください 【5/21開催】Azure OpenAI ServiceによるRAG実装ガイドを公開しました 生成AIを活用したユースケースで最も一番熱いと言われているRAGの実装ガイドを公開しました。そのガイドの紹介をおこなうイベントです!! https://tech-lab.connpass.com/event/315703/ こんにちは、サイオステクノロジー技術部 武井(Twitter:@noriyukitakei)です。タイトルが少々長いのですが、今回はこれからコンテナ、Docker、Kubernetesを始める人のための、入り口的なブ

                                                                  【連載】世界一わかりみが深いコンテナ & Docker入門 〜 その1:コンテナってなに? 〜 | SIOS Tech. Lab
                                                                • “LLM for SRE“の世界探索 - ゆううきブログ

                                                                  ChatGPTが登場した当初、対話や要約、翻訳、コード生成などの典型的な言語タスクができても、SREやAIOpsの研究開発にはあまり関係ないのではないかと正直思っていた。AIOpsでは典型的にはいわゆるObservabilityデータ(メトリクス、ログ、トレースなど)が入力となるため、自然言語ではなく数値のデータを解析することが求められる。自然言語のタスクを研究対象としていなかったため、AIOpsとChatGPTに強い関係性は見いだせなかった*1。 しかし、自分で大規模言語モデル(Large Language Model: LLM)を日常的に使用したり、表題にあるようにSREのためのLLM(LLM for SRE, LLM4SRE)に関する論文を読むうちに、LLMのテキスト生成器としての性質よりもその優れた推論機械としての性質に注目するようになった。特にSREの障害診断は、人間の専門家が推

                                                                    “LLM for SRE“の世界探索 - ゆううきブログ
                                                                  • 社内ナレッジ共有GPTの作り方を動画で徹底解説【GPTsハッカソン@GMO Yours最優秀賞作品】|ChatGPT研究所

                                                                    前書き本記事では、2/27に開催されたGPTsハッカソン @GMO Yours で優勝した社内ナレッジ共有GPT『Share Knowledge In Your Company』と『FAQ collector』の作り方をご紹介します。 ※本記事は、本GPT作成者のArai Motokiさんに寄稿していただきました 2024/02/27 に行われたGPTsハッカソン@GMO Yoursの最優秀賞作品です。 私(製作者自身)が動画で解説し、作り方も全文公開します。できる限りみなさまのお役に立てるように解説をいたします。 長文なので大変だと思いますが、解説動画までを見るだけでも学びはあると思います! 想定している読者申し訳ございませんが、すべてを説明するにはかなりの長文になってしまうため、想定している読者は何度かGPTsを作ったことがあり、より深くGPTsを理解したい人、GPTsの精度を上げてい

                                                                      社内ナレッジ共有GPTの作り方を動画で徹底解説【GPTsハッカソン@GMO Yours最優秀賞作品】|ChatGPT研究所
                                                                    • 「ベクトル検索 vs 全文検索」〜Amazon Bedrockの埋め込みモデルを用いたプロトタイピング〜 - コネヒト開発者ブログ

                                                                      ※ この記事は、AWS (Amazon Web Services) の技術支援を受けて執筆しています。 はじめに この記事はコネヒトアドベントカレンダー 8日目の記事です。 コネヒト Advent Calendar 2023って? コネヒトのエンジニアやデザイナーやPdMがお送りするアドベント カレンダーです。 コネヒトは「家族像」というテーマを取りまく様々な課題の解決を 目指す会社で、 ママの一歩を支えるアプリ「ママリ」などを 運営しています。 adventar.org こんにちは!コネヒトの機械学習エンジニア y.ikenoueです。 突然ですがみなさん、Amazon Bedrockをご存知でしょうか。 aws.amazon.com Amazon Bedrock(以下、Bedrock)は、テキスト生成AIをはじめとする基盤モデル (Foundation Model)*1を提供するAWS

                                                                        「ベクトル検索 vs 全文検索」〜Amazon Bedrockの埋め込みモデルを用いたプロトタイピング〜 - コネヒト開発者ブログ
                                                                      • 新規サービスのバックエンド開発で3ヶ月経ったので、試した技術や取り組みをまとめてみた

                                                                        こんにちは、AIShift バックエンドエンジニアの石井(@sugar235711)です。 AIShiftでは去年の11月からAI Worker[1]という新しいサービスの開発が始まりました。(以下AI Worker) 本格的に開発が始まり3ヶ月弱経ったので、その間に試してきた技術やチームの取り組みについてまとめてみたいと思います。 はじめに この記事では、AI Workerのおおまかな概要・設計を説明し、それらのバックエンドを実現する上でどのような技術を試してきたのか、技術以外でのチームの取り組みについてまとめます。 少し分量が多いので、ライブラリについての情報を求めている方は、目次から気になる部分を読んでいただければと思います。 何を作っているのか ざっくりまとめると、Microsoft Teams/Web上で動くAIを活用した業務改善プラットフォームを作成しています。 GPTとRAG

                                                                          新規サービスのバックエンド開発で3ヶ月経ったので、試した技術や取り組みをまとめてみた
                                                                        • LLM時代のX情報収集術|べいえりあ

                                                                          AI for Everyoneについては日本語版もあるのと、どちらのコースも日本語字幕付きで見られる(多分機械翻訳での英語字幕からの翻訳だが、翻訳の質は悪くない)ので、英語分からなくてある程度何とかなるんじゃないかと思います。 あと、余力のある人、最新のNLP研究を理解したい人はこちらの本を読むことをオススメします。アルゴリズムの詳細は必ずしも理解しなくても良いですが、どんなタスクがあるのかは理解しておいた方が良いかと思います。 NLPの知識がLLMを応用する上で実際にどう役に立つかですが、例えばで言うとNLP的には対話の中には「タスク指向型対話(task-oriented dialogue)」と「雑談(chit-chat dialogue)」があります。それぞれ対話の中で重要視されるものから評価の仕方まで全然違うのですが、NLPをやらずにLLMをやっている人と話しているとこれらをごっちゃ

                                                                            LLM時代のX情報収集術|べいえりあ
                                                                          • もし「GitHub Copilot」を現役弁護士が使ったら? - MNTSQ Techブログ

                                                                            こんにちは。GitHub Copilotを先日初めて触って、感銘を受けたMNTSQ代表の板谷です。MNTSQの代表をしておりますが、現役の弁護士でもあります。 なぜ私が、GitHub Copilotに感銘を受けたかというと、「プログラミングの LLM による進化」は、契約という言語をコーディングするためにもドンピシャで使えそうだと感じたからです。 例えば、GitHub Copilot では、自分の過去のコードを参照して、最適なコードをサジェストしてくれます。 これは、契約に関わるすべてのビジネスパーソンが求めていたものです!契約の 99.9%が過去のコードの使い回しであるにもかかわらず、毎回ゼロからコーディングするのが本当に苦痛だからです。ちなみに、前回契約と理由なく diff があると取引先に怒られます。笑 しかし、GitHub Copilot 的なものがプログラミング言語だけでなく契約

                                                                              もし「GitHub Copilot」を現役弁護士が使ったら? - MNTSQ Techブログ
                                                                            • ノーコードで、高機能AIチャットbotを作ろう。「Dify」を徹底解説|ChatGPT研究所

                                                                              今回は、最近話題の「Dify」というオープンソースのLLMアプリ開発プラットフォームを使って、簡単にAIアプリを作る方法をご紹介します。 Difyとは何か?Difyは、生成AIツールの開発プラットフォームです。 単一のモデルを使うのではなく、複数のAIモデルやツールを組み合わせることで、特定のタスクに特化した高性能なAIアプリケーションを簡単に作ることができます。 その最大の特徴は、RAG(Retrieval-Augmented Generation)エンジンを搭載していることです。RAGとは、関連する情報を検索・取得し、それを基に高品質な回答を生成する技術です。Difyではこの強力なRAGエンジンにより、幅広い分野でのAI活用が可能となっています。 圧倒的に使いやすいインターフェースDifyのもう一つの大きな魅力は、その使いやすさです。プログラミングの知識がなくても、直感的なGUIでドラ

                                                                                ノーコードで、高機能AIチャットbotを作ろう。「Dify」を徹底解説|ChatGPT研究所
                                                                              • 「ラグナロクオンライン」20周年おめでとう! ROは長期運営でどのように変わったのか,筆者が撮影したSSとプレイ体験から振り返ってみたい

                                                                                「ラグナロクオンライン」20周年おめでとう! ROは長期運営でどのように変わったのか,筆者が撮影したSSとプレイ体験から振り返ってみたい ライター:山口和則 PC向けMMORPG「ラグナロクオンライン」(以下,RO)が,本日(2022年12月1日)で,ついにサービス20周年を迎えた。2001年にβテストが開始され,2002年の12月1日に正式サービスが始まったROは,同ジャンルの黎明期において,初期にリリースされた作品であり,まだ前例の少なかったジャンルに挑戦し,この偉業を達成したことを純粋に祝いたいところだ。 公式Twitterアカウントでは,RO20周年を記念して「ラグナロクオンライン同窓会」Twitterキャンペーンを実施中だ。写真(左)にある“乗れる魔法陣ライト”(1名)や,“光る魔法陣カーペット”(10名)などがプレゼントされる。モデルはお馴染み中村聡伸氏だ。公式サイトの「キャン

                                                                                  「ラグナロクオンライン」20周年おめでとう! ROは長期運営でどのように変わったのか,筆者が撮影したSSとプレイ体験から振り返ってみたい
                                                                                • 歴代チャットボットと最近のLLMのまとめ - Qiita

                                                                                  LLMs The History of Chatbots ELIZA (1966) 初期の人工知能プログラムのひとつ。 ルールベースの簡単なパターンマッチングで返答していた。 心理療法士の会話を模したELIZA(DOCTOR)が有名。 PARRY (1972) PARRYは偏執病的統合失調症患者をシミュレートしようとしたもの。 ELIZA(DOCTOR)と通信し話題となった。 Jabberwacky (1982, 1988, 1997) ユーモラスな人間同士の自然な会話をシミュレートすることを目的としていた。 ユーザーとの会話の大規模なデータベースを構築し、言語と文脈を学習することができた。 プロジェクト自体は1982年から開始されていたが、当初は学習機能は有していなかった。 ローブナー賞を2005年(George)、2006年(Joan)に受賞している。 ローブナー賞(Loebner P

                                                                                    歴代チャットボットと最近のLLMのまとめ - Qiita