並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 243件

新着順 人気順

deeplearningの検索結果81 - 120 件 / 243件

  • Introducing ChatGPT Enterprise

    Get enterprise-grade security & privacy and the most powerful version of ChatGPT yet. We’re launching ChatGPT Enterprise, which offers enterprise-grade security and privacy, unlimited higher-speed GPT-4 access, longer context windows for processing longer inputs, advanced data analysis capabilities, customization options, and much more. We believe AI can assist and elevate every aspect of our work

      Introducing ChatGPT Enterprise
    • LLMを用いたLLMの自動評価について 〜可能性と注意点〜 - NTT Communications Engineers' Blog

      こんにちは、イノベーションセンターの杉本(GitHub:kaisugi)です。普段はノーコードAI開発ツール Node-AI の開発に取り組む傍ら、兼務1で大規模言語モデル(LLM:Large Language Model)について調査を行なっています。特に、日本語を中心に学習された LLM への関心があり、awesome-japanese-llm という日本語 LLM をまとめた Web サイトのメンテナンスにも取り組んでいます。 今回は、LLM に LLM の評価そのものを行わせるという新たなアプローチ(LLM-as-a-judge)についてご紹介します。 ChatGPT の登場以降、国内外で LLM の開発競争が進行しており、モデルの重みが公開されたオープンなモデルも続々と現れています。そのような中で、新しいモデルの構築だけでなく、どのモデルが優れているかを比較検討することが今後ます

        LLMを用いたLLMの自動評価について 〜可能性と注意点〜 - NTT Communications Engineers' Blog
      • 【AI動画生成】Animate Anyone 論文解説

        はじめに 11月も終わり、今年も残るところあと一か月となりました。 今年ももう終わるから今年中に成果を上げとけ!と言わんばかりに最近は新技術の登場が多いです。 今回取り上げるのも11月最後の大砲として出てきた新技術、その名もAnimate Anyone Animate Anyoneとはなんぞや 文字で説明するより見たほうが早い 凄くざっくり説明すると、一枚の絵と動きをボーン動画として入力すると、入力した絵がボーン動画と同じ動きをしてくれるよ!というもの。 似たようなものは今までもReferenceOnly × openpose × animatediffとかで出来ましたが、特筆すべきはその精度。 動画生成の大敵であるちらつきは一切なく、入力画像にかなり忠実な動画を生成しています。 さてこの技術、動画生成にずっと注目している自分としてはいますぐにでも弄り倒したいのですが、残念ながらコードとモ

          【AI動画生成】Animate Anyone 論文解説
        • AIの歴史と現在の問題 - デマこい!

          ジョン・ヘンリーの教訓 19世紀の都市伝説に「ジョン・ヘンリー」という人物がいます[1]。 彼は屈強な肉体労働者で、ハンマーを振るって岩に穴を開ける達人でした。ところが蒸気機関で動くドリルの登場により、彼は失業の危機に瀕します。そこで彼は、人間は機械よりも優れていることを示すために、穴開け競争で蒸気ドリルに戦いを挑んだというのです。 伝説によれば、ジョン・ヘンリーは(驚くべきことに)僅差で勝利を収めたとされています。しかし、あまりにも肉体を酷使したために、勝利の直後にその場で倒れて帰らぬ人になりました。周囲の野次馬たちは言いました。「彼は人間らしく死んだ」と。 この逸話から得られる教訓は何でしょうか? 「機械と競い合うのは命にかかわる」とか「バカバカしい」とかではないと私は思います。それはあまりにも表層的な解釈です。生成AIが躍進する現在、ジョン・ヘンリーは遠い過去の伝説ではありません。現

            AIの歴史と現在の問題 - デマこい!
          • 【fabric】複雑なタスクをAIが自動化、人間の能力を拡張するオープンソースAIを使ってみた | WEEL

            【fabric】複雑なタスクをAIが自動化、人間の能力を拡張するオープンソースAIを使ってみた 2024 2/22 WEELメディア事業部LLMライターのゆうやです。 fabricは、誰でも人生や仕事を向上させるために使用できる、オープンソースAIフレームワークです。 このフレームワークは様々なタスクをパターン分けしており、文章の要約や動画の抽出といったタスクを簡単に実行できるほか、それらのパターンを組み合わせて高度なタスクをこなすこともできます。 以下の動画は実際に動作している様子です。 引用元:https://github.com/danielmiessler/fabric?tab=readme-ov-file#fabric-is-an-open-source-framework-for-augmenting-humans-using-ai fabricのGithubのスター数は、4,

            • 自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ

              最近オープンになる大規模言語モデル(LLM)が、軒並みGPT-4レベルの性能となっています Huggngfaceで無料でダウンロードできるのですが、問題は必要VRAM容量です 話題の、Command-r-Plusは、日本語性能について評価が高く、一部の性能はGPT-4並みと言われますが、さすがに大型で104Bパラメータもあるため、4bitに量子化しても60GB程度のVRAMが必要となります。 コンシューマークラスのGPUの最高峰、RTX4090は、VRAM24GBのため、command-r-plusをすべてGPUに載せて推論しようと考えると、3台のマルチGPUデスクトップが必要です しかし、RTX4090は450W消費のGPUのため冷却機構が大きく、1デスクトップに3台収めるのは至難の業となります。 先日、水冷ラジエーター付きRTX4090で、マルチGPUデスクトップを作成しました。 水冷

                自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ
              • BitNetから始める量子化入門

                はじめに BitNet、最近話題になっていますね。 そもそも量子化って何?という方もいると思うので、この記事は DeepLearning の量子化から入り、その上で BitNet の触りについて見ていこうと思います。色々とわかってないことがあり、誤読してそうなところはそう書いてるのでご了承ください。 図を作るのは面倒だったので、様々な偉大な先人様方の図やスライドを引用させていただきます。 量子化 DeepLearning における量子化 DeepLearning の学習・推論は基本 float32 で行います。これを int8 や Nbit に離散化することを量子化といいます。 計算に使う値は、モデルの重み、アクティベーション(ReLUとか通した後)、重みの勾配等があります。 学習時については一旦置いておいて、この記事では推論における量子化について焦点をあてます。推論時に量子化の対象となる

                  BitNetから始める量子化入門
                • Prompt library

                  Explore optimized prompts for a breadth of business and personal tasks. User-submitted prompts have dark backgrounds with light colored icons (currently, there are none). You can submit prompts via our prompt submission form.

                  • GPUなサービスをそこそこな費用で運営する | Kai INUI

                    A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team

                      GPUなサービスをそこそこな費用で運営する | Kai INUI
                    • OpenAI board in discussions with Sam Altman to return as CEO

                      Sam Altman speaking on behalf of OpenAI at the APEC CEO Summit the day before he was fired. Photo by Justin Sullivan / Getty Images The OpenAI board is in discussions with Sam Altman to return to the company as its CEO, according to multiple people familiar with the matter. One of them said Altman, who was suddenly fired by the board on Friday with no notice, is “ambivalent” about coming back and

                        OpenAI board in discussions with Sam Altman to return as CEO
                      • Generative AI for Beginners

                        Description

                        • Meta、コード生成や解釈に特化した大規模言語モデル「Code Llama」公開

                          Metaは、コードもしくは自然言語によるプロンプトから、コードの生成およびコードに関する自然言語の説明を生成できる大規模言語モデル「Code Llama」を公開しました。 Code Llamaは、先月(2023年7月)にMetaが発表した大規模言語モデル「Llama 2」をベースに、コードに特化したデータセットでさらに訓練したバージョンだと説明されています。 対応するプログラミング言語はPython、C++、Java、PHP、JavaScript、Typescript、C#、Bashなどを始めとする主要な言語。 GPUで処理できるサイズやPython特化のモデルも Code Llamaは3つのサイズ、7B、13B、34Bが提供されています。 7Bモデルは1つのGPUで処理できる一方で、34Bモデルは最善の結果を返し、より良いコーディング支援を可能にする能力があります。 一方、7Bおよび13

                            Meta、コード生成や解釈に特化した大規模言語モデル「Code Llama」公開
                          • ベクトルデータの容量を96%削減するBinary Embedding

                            導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 RAGのシステムの中では、どんな情報にアクセスするかを決定する際に、Embeddingと呼ばれる文章をベクトル化する技術が使用されています。そして多くの場合では小数(float)の多次元ベクトルが採用されています。 しかし、Embeddingの中には各ベクトルの数値を1Bitのデータとして扱うBinary Embeddingというものが存在します。 本記事では、Embeddingの手法の一つであるそのBinary Embeddingについて解説と検証を行います。 サマリー Binary Embeddingを採用することで以下のような効果を得ることができます。 保管するベクトルデータの容量を96%ほど削減で

                              ベクトルデータの容量を96%削減するBinary Embedding
                            • GPT-3.5 Turbo fine-tuning and API updates

                              Developers can now bring their own data to customize GPT-3.5 Turbo for their use cases. Fine-tuning for GPT-3.5 Turbo is now available, with fine-tuning for GPT-4 coming this fall. This update gives developers the ability to customize models that perform better for their use cases and run these custom models at scale. Early tests have shown a fine-tuned version of GPT-3.5 Turbo can match, or even

                                GPT-3.5 Turbo fine-tuning and API updates
                              • 画像生成AI「Stable Diffusion」に「悪い例を集めたLoRA」を組み合わせて高品質な画像を生成する手法が登場、簡単に試せるデモも公開されたので試してみた

                                2023年7月に公開された「Stable Diffusion XL 1.0(SDXL 1.0)」は既存のStability AI製モデルと比べて高品質な画像を生成できるだけでなく、LoRAによる生成画像の調整にも対応しています。データサイエンティストのマックス・ウルフ氏は「悪い例」を集めて作成したLoRAを用いてSDXL 1.0による生成画像の品質をさらに向上させる手法を考案し、LoRAファイルおよび誰でも試せるデモを公開しています。 I Made Stable Diffusion XL Smarter by Finetuning it on Bad AI-Generated Images | Max Woolf's Blog https://minimaxir.com/2023/08/stable-diffusion-xl-wrong/ LoRAは参考となる画像を集めて絵柄や服装などを追

                                  画像生成AI「Stable Diffusion」に「悪い例を集めたLoRA」を組み合わせて高品質な画像を生成する手法が登場、簡単に試せるデモも公開されたので試してみた
                                • OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka

                                  OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試したのでまとめました。 1. GPT-4 から GPT-3.5 への蒸留「LlamaIndex」で、OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留のColabが提供されてたので、それをベースに独自データで試してみました。 具体的には、「GPT-4」で学習データを生成し、「GPT-3.5」でファインチューニングすることで、「GPT-3.5」に「GPT-4」相当の知識を習得させます。 We successfully made gpt-3.5-turbo output GPT-4 quality responses in an e2e RAG system 🔥 Stack: automated training dataset creation in @ll

                                    OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka
                                  • 大規模モデルを支える分散並列学習のしくみ Part1

                                    はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 自然言語処理分野における大規模深層学習の重要性は日に日に高まっていますが、GPT-3, GPT-4 などのモデルの学習には膨大な計算コストがかかり、容易に学習できなくなっています。実際、モデルサイズが近年急速に大きくなっていることにより、学習に必要な計算量(FLOPs)は以下のように年々膨大になっています。近年の大規模モデルでは、NVIDIA H100 80GB であっても 1 つの GPU では、モデルをのせることすらできません。 Compute Trends Across Three Eras of Machine Learning より またScaling Laws によると、大規模なモデルは小さいモデルと比較してより優れた性能を発揮するため、自動

                                      大規模モデルを支える分散並列学習のしくみ Part1
                                    • 日々の壁打ち:「絵描きさんの言葉」と「それ以外の人達の言葉」の意味合いの違い。特に生成AIが出力する絵に関して。|Nobuyuki Kobayashi@nyaa_toraneko

                                      日々の壁打ち:「絵描きさんの言葉」と「それ以外の人達の言葉」の意味合いの違い。特に生成AIが出力する絵に関して。 ChatGPTで、自分のためにMy GPTsを開発すると、とても面白い体験を味わえる。このnoteは、My GPTsとの付き合い方の記録である。 はじめに:僕のパートナーは元プロの絵描きさんです僕のパートナー、世間的に言いますと、配偶者もしくは奥様は、元プロの絵描きさんです。現在は、子どものために家庭に入ってもらっています。現役時代は、ずっと僕のパートナーとして、数々のゲームの作画監督やCG監督をやってもらっておりました。 例えば、『とらドラ・ポータブル!』や『涼宮ハルヒ』シリーズのADVゲームです。 絵描きさんのパートナーがいると、大変ありがたいことに、絵やイラストについて詳しく話を聴くことができます。しかも「パートナー」ですから、相当歯に衣着せない正直な発言も聴かせてくれま

                                        日々の壁打ち:「絵描きさんの言葉」と「それ以外の人達の言葉」の意味合いの違い。特に生成AIが出力する絵に関して。|Nobuyuki Kobayashi@nyaa_toraneko
                                      • Claude3にプロジェクト全体をぶち込むためのプロジェクトの構造とファイル内容を自動でまとめるPythonスクリプト

                                        はじめに Claude3Opusはものすごい能力で、手動で作成するのは面倒なプロジェクトのドキュメンテーションなどを一撃で生成してくれます。 しかし、プロジェクト全体の内容をWebのCladeには投入できないし、ファイルを1個ずつコピペするのもかなり時間を要します。 頼みのCursorもClaudeは対応していないので@Codebase機能が利用できません・・・ そこで、Pythonスクリプトを使ってプロジェクトのフォルダ構造とファイルの内容を自動的にまとめるスクリプトを作成したので紹介します! このスクリプトを使うことで、プロジェクトを200kトークンまでの単一のテキストにまとめ、Claude3Opusに簡単に投入できるようになります。 スクリプトの機能と使い方 このPythonスクリプトは以下のような機能を持っています: プロジェクトのフォルダ構造をMarkdown形式で生成。※本当は

                                          Claude3にプロジェクト全体をぶち込むためのプロジェクトの構造とファイル内容を自動でまとめるPythonスクリプト
                                        • GPT-4oをわかりやすく解説、専門家が「時代の転換点」と評価するヤバすぎる能力とは

                                          2024年5月に入ってすぐ、AI研究者の間ではOpenAIにまつわる複数の噂が流れていました。いわく「OpenAIが近日中に生成AIを使った検索サービスをするらしい」、「OpenAIが新型のGPTを発表するらしい」などといったものです。 それに先立ち、4月の後半からは、生成AIの性能を比較するサイトで、正体不明のモデル「gpt2-chatbot」なるものが出現し、制作者が不明である中、当時最高の性能を誇っていたGPT-4を上回る性能を見せつけていました(もちろんOpenAIはすでに「GPT-2」を数年前に発表済みです)。では今更このような名前をつけて暴れ回っているこれは何なのか。OpenAI製なのか、それとも別の機関が開発したのか。 この話は後々答えがわかるのですが、このようにAI研究者たちが落ち着かず、あれこれと噂してOpenAIの動向に注意している中、OpenAIは日本時間の5月11日

                                            GPT-4oをわかりやすく解説、専門家が「時代の転換点」と評価するヤバすぎる能力とは
                                          • 外部データをRetrievalしてLLM活用する上での課題と対策案 - ABEJA Tech Blog

                                            はじめに ABEJAでデータサイエンティストをしている服部です。 今回はLLMで外部データを使うケースについてのお話をしたいと思います。 はじめに LLMと外部データの利用 RetrievalとLLM 0. (事前準備)参照したいテキストデータをDBに格納 1. ユーザの入力文とのテキスト類似度を計算して、関連テキストを抽出する(Retrieval) 2. 関連テキストをLLMのプロンプトに入れ込み、ユーザの入力文に回答する。 Retrieval時の課題 LangChainでの用意 Case1: それぞれの文章がRetrievalしにくい形で保存されている 対策案: ページ構造を意識した形で各文章を格納する 他の対策案 聞き方を明確にする 類似度を測るクエリ文章を置き換える 不要そうな文章をデータから削除する データ自体をLLMで整形し直す Case2: 未知の単語を含む 仮説: ニャオハ

                                              外部データをRetrievalしてLLM活用する上での課題と対策案 - ABEJA Tech Blog
                                            • GitHub、脆弱性のあるコードの自動修正機能発表。AIボットが修正済みコードと解説をプルリクエスト

                                              GitHubは、脆弱性のあるコードをAIボットが自動的に発見、修正したコードとその解説をプルリクエストしてくれる「code scanning autofix」(コードスキャン自動修正機能)を発表しました。 Meet code scanning autofix, the new AI security expertise now built into GitHub Advanced Security! https://t.co/cTDuKZCWMv — GitHub (@github) March 20, 2024 下記がそのコードスキャン自動修正機能の説明です。「Found means fixed: Introducing code scanning autofix, powered by GitHub Copilot and CodeQL」から引用します。 Powered by GitH

                                                GitHub、脆弱性のあるコードの自動修正機能発表。AIボットが修正済みコードと解説をプルリクエスト
                                              • マネフォ出身者創業の生成AIスタートアップStarley、雑談や悩み相談できるアプリ「Cotomo」をローンチ - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                                Image credit: Starley <21日15時更新> アプリに搭載されている基本音声の数を修正。 マネーフォワード(東証:3994)出身の丸橋得真氏や内波生一氏らが生成 AI スタートアップ Starley を創業し、プレシードラウンドで古巣であるマネーフォワードから1億円を調達したことは、昨年6月にお伝えした。あれから8ヶ月を経過した21日、同社は AI アプリの「Cotomo」をローンチした。iOS 向けに提供され、アプリストアからダウンロードできる。 Cotomo はユーザとの会話を通じて成長する音声会話アプリだ。雑談や悩み相談など、人間が独りでいる時、誰かといるが会話が煩わしい時などに、気軽に言葉を交わせることでユーザに癒しをもたらすことを意図している。最近の生成 AI のように、インターネット経由で外部から情報取得して応えることはしないが、「一般常識寄りなことであれば

                                                  マネフォ出身者創業の生成AIスタートアップStarley、雑談や悩み相談できるアプリ「Cotomo」をローンチ - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                                                • OpenAI、次世代AIモデル「GPT-4o」を発表

                                                  日本時間2024年5月14日未明、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました。このモデルは、音声、視覚、テキストのリアルタイム処理を可能とし、従来のAIモデルを大きく上回る性能を誇ります。OpenAIのCTOであるミラ・ムクティ氏は、「GPT-4oは、人間とマシンのインタラクションの未来を大きく変える一歩です。このモデルにより、コラボレーションがはるかに自然で簡単になります」と述べました。 「GPT-4o」の主な特徴を以下にまとめました。 他のモデルを凌駕する性能 GPT-4oは、OpenAIの以前のモデルであるGPT-4 Turboや、ライバル会社のClaude 3 Opusなどの大規模言語モデルと比較して、頭ひとつ抜けた性能向上を実現しました。サム・アルトマンCEOは、今年4月に "Chatbot Arena" でgpt2というコードネームでテストされていた

                                                    OpenAI、次世代AIモデル「GPT-4o」を発表
                                                  • Googleが高精度かつ高速にファイル形式を判別するツール「Magika」公開

                                                      Googleが高精度かつ高速にファイル形式を判別するツール「Magika」公開
                                                    • Animate Anyone

                                                      Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation Character Animation aims to generating character videos from still images through driving signals. Currently, diffusion models have become the mainstream in visual generation research, owing to their robust generative capabilities. However, challenges persist in the realm of image-to-video, especially in c

                                                      • 2023.05.13_ChatGPT講座_v2_共有用.pdf

                                                        ログイン読み込んでいます…

                                                        • 「数千万円かかるコスト」と「山のような技術的課題」 開発者たちが語る、日本語LLMの現在地

                                                          基盤モデルの開発をしている中で苦労することは? 南野充則氏(以下、南野):では、ここからパネルディスカッションに移っていきたいと思います。最初は、こちら側でお題を用意しています。大きなトピックとしては、基盤モデルの開発とコスト、基盤モデルにおけるアカデミアとビジネスの観点でどのような考え方をされているのかというところ。 あとは、日本語特化LLMの意義と展望といったところですね。大きなトピックとして揃えていますが、今「Slido」でのご質問もいただいていますので、適宜Slidoも拾いながらやっていければと思います。Slidoは、このQRコードからみなさんに質問していただければと思います。 さっそくですが、トピック1に移っていきたいと思います。「基盤モデルの開発をしている中で苦労されることは?」というところで、これはまず垣内さんからお願いしたいです。この基盤モデルを作っている中でどんな苦労があ

                                                            「数千万円かかるコスト」と「山のような技術的課題」 開発者たちが語る、日本語LLMの現在地
                                                          • GPT開発の悩みの種「速度」「精度」「評価」の壁をどう超えるか

                                                            2024/3/6 Forkwell Library #45で登壇した際の資料です。 名前の通りGPT開発の「速度」「精度」「評価」のそれぞれについて解説してます。 近く大全↓とも統合するかと思いますが取り急ぎ。 https://speakerdeck.com/hirosatogamo/chatgpt-azure-openai-da-quan https://forkwell.connpass.com/event/310880/?utm_campaign=event_participate_to_follower&utm_source=notifications&utm_medium=twitter

                                                              GPT開発の悩みの種「速度」「精度」「評価」の壁をどう超えるか
                                                            • GPTsより精度の高いRAGシステムの構築

                                                              Templates, Plugins, & Blocks: Oh My! Creating the theme that thinks of everything

                                                                GPTsより精度の高いRAGシステムの構築
                                                              • 「本人の声とそっくりな合成音声」の悪用に対して法的権利はあるか? NTT社会情報研究所が調査

                                                                現代の音声合成技術は特定の人物の声を基にして、その人と非常に似た合成音声を生成する能力を持つ。このような実在の人物の声の合成は、なりすましや詐欺などの不適切な使用が問題視されていることに加え、声の再現や公開がその人物の人格的利益や名誉感情に影響を与える可能性もある。また声優や歌手のように、自らの声を職業活動に利用する人々にとっては、無許可での声の再現や使用によって経済的損失を被る恐れがある。 この研究の焦点は、特定の人物の音声データから学習させたモデルを用いて、任意のテキストをその人物の声で読み上げる合成音声技術にある。日本ではこの問題に関する具体的な法的争訟例はまだ存在しないとされるが、研究では架空の事例を設定し、この技術が引き起こしうる問題点を探究する。以下がその事例になる。(音声合成AIの利用場面における法的課題―「声」に権利はあるのか―より引用)。 声優Xは、所属するタレント事務所

                                                                  「本人の声とそっくりな合成音声」の悪用に対して法的権利はあるか? NTT社会情報研究所が調査
                                                                • 👾 LM Studio - Discover and run local LLMs

                                                                  LM Studio is an easy to use desktop app for experimenting with local and open-source Large Language Models (LLMs). The LM Studio cross platform desktop app allows you to download and run any ggml-compatible model from Hugging Face, and provides a simple yet powerful model configuration and inferencing UI. The app leverages your GPU when possible.

                                                                    👾 LM Studio - Discover and run local LLMs
                                                                  • LangChain の新記法「LangChain Expression Language (LCEL)」入門

                                                                    LangChain Advent Calendar 2023 の 2 日目の記事です。 LangChain Expression Language (LCEL) とは LangChain Expression Language (LCEL) は、LangChain でのコードの新しい記述方法です。 公式ドキュメント: https://python.langchain.com/docs/expression_language/ LCEL ではプロンプトや LLM を | で繋げて書き、処理の連鎖 (Chain) を実装します。 2023 年 10 月後半頃から、LangChain では LCEL を使う実装が標準的となっています。 この記事では LCEL の基本的な使い方を紹介していきます。

                                                                      LangChain の新記法「LangChain Expression Language (LCEL)」入門
                                                                    • neue cc - Claudia - Anthropic ClaudeのC# SDKと現代的なC#によるウェブAPIクライアントの作り方

                                                                      Claudia - Anthropic ClaudeのC# SDKと現代的なC#によるウェブAPIクライアントの作り方 2024-03-18 AI関連、競合は現れども、性能的にやはりOpenAI一強なのかなぁというところに現れたAnthropic Claude 3は、確かに明らかに性能がいい、GPT-4を凌駕している……!というわけで大いに気に入った(ついでに最近のOpenAIのムーブが気に入らない)ので、C#で使い倒していきたい!そこで、まずはSDKがないので非公式SDKを作りました。こないだまでプレビュー版を流していたのですが、今回v1.0.0として出します。ライブラリ名は、Claudeだから、Claudiaです!.NET全般で使えるのと、Unity(Runtime/Editor双方)でも動作確認をしているので、アイディア次第で色々活用できると思います。 GitHub - Cyshar

                                                                      • NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発

                                                                        NECは、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 本LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的なモデル、いわゆるファウンデーションモデル(注1)です。独自の工夫により高い性能を実現しつつパラメータ数を130億に抑えた本LLMは、消費電力を抑制するだけでなく、軽量・高速のためクラウド/オンプレミス環境での運用が可能となります。性能面では、日本語の知識量や文書読解力を計測する日本語の一般的なベンチマーク(注2)で、世界トップクラスの日本語能力を実現しています。 NECでは本LLMをすでに社内業務で活用を始めており、文書作成や社内システム開発におけるソースコード作成業務など、様々な作業の効率化にも応用しています。 昨今、「ChatGPT」を始めとする生成AIが世界的

                                                                          NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発
                                                                        • LangChain への OpenAIのRAG戦略の適用|npaka

                                                                          以下の記事が面白かったので、かるくまとめました。 ・Applying OpenAI's RAG Strategies 1. はじめに「Open AI」はデモデーで一連のRAG実験を報告しました。評価指標はアプリケーションによって異なりますが、何が機能し、何が機能しなかったかを確認するのは興味深いことです。以下では、各手法を説明し、それぞれを自分で実装する方法を示します。アプリケーションでのこれらの方法を理解する能力は非常に重要です。問題が異なれば異なる検索手法が必要となるため、「万能の」解決策は存在しません。 2. RAG スタックにどのように適合するかまず、各手法をいくつかの「RAGカテゴリ」に分類します。以下は、カテゴリ内の各RAG実験を示し、RAGスタックに配置する図です。 3. ベースライン距離ベースのベクトルデータベース検索は、クエリを高次元空間に埋め込み(表現)し、「距離」に基

                                                                            LangChain への OpenAIのRAG戦略の適用|npaka
                                                                          • 「意思決定の仕組み」がついに判明(ハーバード大学) (2/2) - ナゾロジー

                                                                            意思決定の「基礎的ルール」を特定する意思決定の「基礎的ルール」はどんなものなのか? 先に述べたように、この基礎的ルールというものが、ネットワーク全体の活性化や不活性化といった、単純なON・OFFの仕組みでないことがわかっています。 そのため仕組みを解明するには、マウスたちの神経ネットワークを構成する全てのニューロンと全ての接続を知る必要があります。 調査にあたってはまず、マウスの後帯状皮質に対して、強く活動するニューロンほど強く光るような仕組み「2光子カルシウムイメージング法」を導入しました。 (※2光子カルシウムイメージングでは細胞の活動の強さにともなって強く蛍光を発する、カルシウムセンサータンパク質が用いられます。この光るタンパク質の設計情報はウイルス感染によってマウスの後帯状皮質へと届けられます) マウスたちには仮想現実の中で迷路を進んでもらいました / Credit:Aaron T

                                                                              「意思決定の仕組み」がついに判明(ハーバード大学) (2/2) - ナゾロジー
                                                                            • 【西川和久の不定期コラム】 Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる

                                                                                【西川和久の不定期コラム】 Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる
                                                                              • xAI、“全人類に利益をもたらすAIツール”を目指す「Grok」正式発表

                                                                                イーロン・マスク氏が7月に立ち上げたAI企業xAIは、同社初のAIモデル「Grok」を発表した。まだ初期β段階だが、ベンチマークでは「ChatGPT-3.5」や「Inflection-1」を上回るとしている。 イーロン・マスク氏率いる米AI企業xAIは11月4日(現地時間)、同社初のAIモデル「Grok」を発表した。マスク氏はそれに先立ち、GrokをXのハイエンドサブスクプランユーザーに提供する計画だとポスト済みだ。 xAIは企業サイトのトップページで「Grokは、『銀河ヒッチハイク・ガイド』をモデルにしたAIで、ほぼすべてのことに答えることを目的としており、質問すべきことを提案することさえできる」「ウィットに富んだ質問に答えるよう設計されており、反抗的な性格でもあるので、ユーモアが嫌いであれば使わないように」と説明している。 xAIは、全人類に利益をもたらすAIツールを構築するためにフィ

                                                                                  xAI、“全人類に利益をもたらすAIツール”を目指す「Grok」正式発表
                                                                                • AIの民主化が進む時代におけるバクラクのAI-OCR機能の開発戦略 #LayerXテックアドカレ - LayerX エンジニアブログ

                                                                                  LayerX バクラク事業部 機械学習チームの機械学習エンジニア兼マネージャーの松村(@yu-ya4)です。半年間に結婚祝いでいただいたたくさんのお酒が順調に減ってきているのですが、サントリーウイスキー角瓶 4Lペットだけはなくなる気配がありません。 この記事はLayerXテックアドカレ2023の16日目の記事のはずです。 前回はosukeさんの『Azure AI SearchのSemantic Ranker』という記事でした。 次回はminako-phさんによるタメになる記事、『Notionでスプリントのあれこれをダッシュボードで可視化する 』が公開予定ですされました。 昨今のAIの進化には目を見張るものがあります。先日のOpenAI DevDayやMicrosoft Igniteでも様々な衝撃的な発表がなされました。今週は違う意味で衝撃的なニュースが多かったですが。 そのような時代です

                                                                                    AIの民主化が進む時代におけるバクラクのAI-OCR機能の開発戦略 #LayerXテックアドカレ - LayerX エンジニアブログ