並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 3384件

新着順 人気順

NLPの検索結果1 - 40 件 / 3384件

  • Model Spec (2024/05/08)

    May 08, 2024 Overview This is the first draft of the Model Spec, a document that specifies desired behavior for our models in the OpenAI API and ChatGPT. It includes a set of core objectives, as well as guidance on how to deal with conflicting objectives or instructions. Our intention is to use the Model Spec as guidelines for researchers and data labelers to create data as part of a technique cal

    • Introducing the Model Spec

      To deepen the public conversation about how AI models should behave, we’re sharing the Model Spec, our approach to shaping desired model behavior. We are sharing a first draft of the Model Spec, a new document that specifies how we want our models to behave in the OpenAI API and ChatGPT. We’re doing this because we think it’s important for people to be able to understand and discuss the practical

        Introducing the Model Spec
      • 『生成AIカンファレンス2024』に現地参加したイベントレポート|スマートラウンド

        スマートラウンドでエンジニアをしている福本です! 2024/05/08(水)に開催された『生成AIカンファレンス2024』に現地参加したので、メモの公開RTAをしたいと思います。 厳密な文字起こしではないので、足りてないところ・読みづらいところがたくさんあります(スマン)。前提として自分がWebエンジニアなので、アプリケーションレイヤー寄りの話に興味が湧きがちだったりします。 ちなみに、参加申し込みをされた方は、後からアーカイブが見れるそうなのでそちらもあわせてどうぞ👇 / 📣 9:30まで限定!現地参加の当日チケット販売🎫 \ 🔥まだ間に合う🔥 エンジニア・PM・事業責任者必見、1日で生成AIのトップランナーの話が直接聞ける絶好の機会! ✅ 東大松尾教授が語る「日本のAI戦略」 ✅ 日本マイクロソフトやPKSHA Technology、LayerX等豪華企業によるセッション ✅

          『生成AIカンファレンス2024』に現地参加したイベントレポート|スマートラウンド
        • IBMが自社製AI「Granite」のコード生成モデルをオープンソース化、116のプログラミング言語でトレーニングされパラメータは30~340億

          ソフトウェアは現代社会のありとあらゆる側面に取り込まれており、飛躍的な生産性の向上や科学技術の発展に貢献してきました。しかし、信頼性の高いソフトウェアの作成・デバッグ・展開といった作業は骨が折れるものであり、熟練した開発者でも最新の技術や言語に追いつくのは大変です。そこでアメリカの大手IT企業であるIBMは、プログラミングコードの生成・修正・別言語への翻訳などのタスクを実行するGraniteコード生成モデルのファミリーをオープンソースで公開しました。 IBM’s Granite code model family is going open source - IBM Research https://research.ibm.com/blog/granite-code-models-open-source GitHub - ibm-granite/granite-code-models:

            IBMが自社製AI「Granite」のコード生成モデルをオープンソース化、116のプログラミング言語でトレーニングされパラメータは30~340億
          • 噂のノーコードAIシステム開発環境Difyを使ってツールを作ってみた。使った感想|shi3z

            最近にわかに話題のLLMツール「Dify」を僕も使ってみた。 いいところと「?」となったところがあったので纏めておく Difyとは、GUIでワークフローを組むことができるLLM-OPSツールだ。 ComfyUIのようにワークフローが組めたり、GPTsのように自分専用のアシスタントを作れたりできる。 特に、OpenAIのGPTシリーズとAnthropicのClaude-3、そしてCohereのCommand-R+なんかを組み合わせて色々できるところは良いところだと思う。また、ローカルLLMにも対応しているので、企業内でのチャットボットを作るんだったらGPTsよりこっちの方がいいだろう。 元々色々なテンプレートが用意されているが、テンプレだけ使うとGPTsっぽいものを作れる(それだってすごいことだが)。テンプレを改造するだけでも欲しいものが作れる人はいるし、ここはノーコード環境と言える テンプ

              噂のノーコードAIシステム開発環境Difyを使ってツールを作ってみた。使った感想|shi3z
            • 「Dify」の何が熱いの?|分解ちゃんねる

              すでにDifyの可能性に気づいていらっしゃる方々には釈迦に説法で恐縮ですが、これから試してみようとされている方も結構いらしたのでDifyを使いこなせるようになるのがワクワクする話をできればと_ _ (この記事はぼくなりにかなり噛み砕いて説明したいと思います) 「Dify」のやばさ結論、Difyには信じられないくらい多くの機能が実装されていることです。笑 機能たちをざっくり紹介しながらこの衝撃をお伝えできたらと思います。 (ちょっと機能に即した形での紹介というよりはこんなことができるんだぁ、というイメージに寄せた形で解説しようと思います。) 好きなLLMでチャットボット好きなLLMを選択してボットを構築できるChatGPTやClaude、Geminiなど各社から優秀なモデルが公開されていますが、サービスとして利用すると各サイトをいったりきたりしなくてはいけません。 しかし、Dify上でAPI

                「Dify」の何が熱いの?|分解ちゃんねる
              • 1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog

                地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 LLM群雄割拠の時代 昨今、ローカルGPUで駆動できるようなLLM(大規模言語モデル)もかなり増えてきて、キャッチコピー的に「ついに我が家にもGPT-4が!」とか言われるようになってまいりました。パラメータ規模で言えば70億~130億(7B-13B)パラメータ、700億(70B)パラメータ、1400億(140B)パラメータあたりのモデルが活発にリリースされているように見受けられます。 大きなモデルをGPU寄せ集めしつつ遊びたい! しかしながら、コンシュマー向けのGPUにおいては、7B

                  1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog
                • MetaのLlama 3を日本語でさらに学習したAIモデル、rinnaが公開

                    MetaのLlama 3を日本語でさらに学習したAIモデル、rinnaが公開
                  • rinna、Llama 3の日本語継続事前学習モデル「Llama 3 Youko 8B」を公開|rinna株式会社

                    Llama 3の高いテキスト生成能力を日本語にいち早く導入 rinna株式会社 (本社:東京都渋谷区/代表取締役:宋 珠憲、以下rinna) は、Llama 3 8Bに対して日本語データで継続事前学習を行った「Llama 3 Youko 8B」を開発し、Meta Llama 3 Community Licenseで公開したことを発表します。 ■ rinnaのモデル公開活動 最近のAI技術は、世界中の研究・開発者が切磋琢磨し、成果を共有・公開することで劇的に進化を遂げています。rinnaも、日本語のタスクに適したGPT・BERT・HuBERT・CLIP・Stable Diffusionなど、テキスト・音声・画像に関する事前学習済み基盤モデルを公開してきました。2021年4月からHugging Faceに公開してきたrinnaのモデルは累計560万ダウンロード・1000 Likesを超え、多く

                      rinna、Llama 3の日本語継続事前学習モデル「Llama 3 Youko 8B」を公開|rinna株式会社
                    • Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics

                      皆さんこんにちは 機械学習チームYAMALEXの@tereka114です。 YAMALEXは Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) 日々、LLMが進化していて、画像が本職(のはず)の私ですら、ここ数年LLMの勉強をはじめています。 学習してモデル公開しましたといった記事はよく見ますが、今回は今、非常に注目されている日本に拠点があるAIスタートアップである「Sakana.ai」が公開した「Evolutionary Model Merge」を使う話をします。 Evolutionary Model Merge 「Evolutionary Model Merge」は「Sakana.ai」から発表された進化的モデルマージと呼ばれる技術です。 端的に言ってしまえば、複数のモデルを利用して新し

                        Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics
                      • Microsoftが独自の大規模言語モデル「MAI-1」を開発中との報道、Google・OpenAI・AnthropicのAIモデルと競合可能なレベルとも

                        Microsoftが独自の大規模言語モデル(LLM)「MAI-1」の開発に取り組んでいると報じられています。このMAI-1は、GoogleのGeminiやOpenAIのGPT-4、AnthropicのClaudeといった最先端のAIモデルに匹敵する可能性があるそうです。 Meet MAI-1: Microsoft Readies New AI Model to Compete With Google, OpenAI — The Information https://www.theinformation.com/articles/meet-mai-1-microsoft-readies-new-ai-model-to-compete-with-google-openai New Microsoft AI model may challenge GPT-4 and Google Gemini

                          Microsoftが独自の大規模言語モデル「MAI-1」を開発中との報道、Google・OpenAI・AnthropicのAIモデルと競合可能なレベルとも
                        • SQL滅ぶべし | ドクセル

                          SQL • リレーショナルデータベースシステムと会話するための言語 • 1970年 Codd が RDB モデルと同時に提案 (Alpha言語) • 1974年 Chamberlin と Boyce が改良 • 元々は SEQUEL (Structured English Query Language) だったが、商標登録されていた • 読み方は エスキューエル とそのまま読む (Glliespie 2012)

                            SQL滅ぶべし | ドクセル
                          • Dify で RAG を試す|npaka

                            1. RAG「RAG」(Retrieval Augmented Generation) は、最新の外部知識の習得とハルシネーションの軽減という、LLMの2つの主要課題に対処するためのフレームワークです。開発者はこの技術を利用して、AI搭載のカスタマーボット、企業知識ベース、AI検索エンジンなどをコスト効率よく構築できます。これらのシステムは、自然言語入力を通じて、さまざまな形態の組織化された知識と相互作用します。 下図では、ユーザーが「アメリカの大統領は誰ですか?」と尋ねると、システムは回答のためにLLMに質問を直接渡しません。代わりに、ユーザーの質問について、知識ベース (Wikipediaなど) でベクトル検索を実施します。意味的な類似性マッチングを通じて関連するコンテンツを見つけ (たとえば、「バイデンは現在の第46代アメリカ合衆国大統領です...」)、LLMに発見した知識とともにユ

                              Dify で RAG を試す|npaka
                            • 大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?

                              組織には構造化されたデータベースやきれいにフォーマットされたCSVのほか、何気なく書いたメールから複雑な技術マニュアルまでさまざまな形式のデータが大量に保存されています。検索拡張生成(RAG)は大規模言語モデル(LLM)を使用して全てのデータから適切な情報を引き出すための技術ですが、RAGを使用する際にデータの取り込みと前処理をどのように行うと効率的なのかを、RAG向けデータ前処理サービスを展開するUnstructuredが解説しました。 Understanding What Matters for LLM Ingestion and Preprocessing – Unstructured https://unstructured.io/blog/understanding-what-matters-for-llm-ingestion-and-preprocessing LLMを最大限に

                                大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?
                              • Dify の ワークフロー の概要|npaka

                                以下の記事が面白かったので、簡単にまとめました。 ・Workflow - Dify 1. ワークフロー1-1. ワークフロー「ワークフロー」は、複雑なタスクを小さな「ノード」に分割することで、LLMアプリケーションのモデル推論への依存を減らし、システムの説明可能性、安定性、耐障害性を向上させます。 「ワークフロー」の種類は、次のとおりです。 ・Chatflow :  顧客サービス、セマンティック検索など、応答作成に複数ステップのロジックを必要とする会話シナリオ用 ・Workflow : 高品質な翻訳、データ分析、コンテンツ作成、電子メールの自動化など、自動化・バッチ処理シナリオ用 1-2. Chatflow自然言語入力におけるユーザー意図認識の複雑さに対処するため、「質問分類」「質問書き換え」「サブ質問分割」などの問題理解ノードを提供します。さらに、LLMに外部環境との対話機能、すなわち「

                                  Dify の ワークフロー の概要|npaka
                                • ローカルLLMはこーやって使うの💢

                                  making-the-most-of-local-llms.ipynb Sorry, something went wrong. Reload? Sorry, we cannot display this file. Sorry, this file is invalid so it cannot be displayed.

                                    ローカルLLMはこーやって使うの💢
                                  • 【未経験者大歓迎】RAG超入門:AWSが推奨するRAGを体験するハンズオン - Qiita

                                    2024/5/5更新:生成AIに興味を持った方向け、続編を投稿しました。 「Qiitaに聞いた!!」をAmazon Bedrockで作った!(Claude 3でRAG) タイトルはふざけてますが、プロンプトエンジニアリングにより本投稿と同様の内容を行う解説をしています。 (BedrockのClaude 3モデルと、Google検索を使った構成です) 生成AIはとても注目度が高い技術ですが、すこしとっつきにくいところがあるかもしれません。新しいモデルや活用手法が毎日のように登場し、ウォッチし続けるのはかなり大変です。 タイミングを逃して入門できていない方向けに、 とりあえず作って体感してみよう というコンセプトで、ハンズオン記事を作成しました。🎉🎉🎉 ハンズオンの内容は「RAG」です。RAGは生成AIの活用法としてよく出てくるキーワードです。ハンズオンでは、ただのRAGではなく最先端の

                                      【未経験者大歓迎】RAG超入門:AWSが推奨するRAGを体験するハンズオン - Qiita
                                    • RAGにおいてLLMが「役立たない情報を無視」できるようにする『RAFT』QAタスクで従来の手法を大幅に上回る結果を達成 | AIDB

                                      背景 LLMは、膨大な量の公開データで学習することにより、幅広い一般知識推論タスクで著しい進歩を遂げてきました。一方で、LLMが特定の分野のタスクに用いられる場合、一般的な知識推論よりも、与えられた文書に対して正確であることが強く求められています。例えば最新のニュースや企業の非公開文書などに適応させることは課題になっています。 LLMを特定分野に適応させる際、検索拡張生成(RAG)を用いたコンテキスト学習と、教師あり微調整(supervised fine-tuning)の2つの手法が主に考えられます。 RAGベースの手法は、LLMが質問に答える際に文書を参照するものです。この手法では、モデルが事前に学習しているわけではありません。外部のナレッジベースから関連情報を取得することで問題解決能力を向上する(比較的リーズナブルな)アプローチです。 教師あり微調整は、文書からより一般的なパターンを学

                                        RAGにおいてLLMが「役立たない情報を無視」できるようにする『RAFT』QAタスクで従来の手法を大幅に上回る結果を達成 | AIDB
                                      • 【検閲なし】GPUで生成するローカルAIチャット環境と小説企画+執筆用ゴールシークプロンプトで叡智小説生成最強に見える|カガミカミ水鏡👯

                                        この記事では日本語小説に強いローカルLLM環境を簡単構築できるEasyLightChatAssistantの紹介と、論理破綻が少ない効率的な小説生成を促す(と個人的には思っている)AIチャット用プロンプトの公開をしていきます。このコンテンツは主に官能小説をベースに語りますので、年齢制限などお住まいの国家地域のレーティングに従ってお読みください。 どうもこんにちは、休日に「生成AIなんでも展示会」というイベントを知って寝てからいくかーと思って起きて行こうと思ったら当日参加不可イベントだったことを知ったカガミカミ水鏡です。そうよ鉄郎……私は計画性がない女…… ところでエロ小説が大好きな皆さん(直球)、カガミカミ水鏡さんという方はご存知ですか? 生成AIが頭角を表すはるか以前の2015年からpixivの片隅できしょいジャンルの小説を投稿してるエロSS書きです(猫耳の奴などは2011年にbbspi

                                          【検閲なし】GPUで生成するローカルAIチャット環境と小説企画+執筆用ゴールシークプロンプトで叡智小説生成最強に見える|カガミカミ水鏡👯
                                        • 実例で紹介するRAG導入時の知見と精度向上の勘所

                                          2024/04/24に開催したセミナーで登壇した際に、使用した資料です https://dev.classmethod.jp/news/240424-ai-rag-webinar/

                                            実例で紹介するRAG導入時の知見と精度向上の勘所
                                          • Python 3.12で増えた並列処理と、これまでの並列処理の挙動を比べてみる - Qiita

                                            この記事ですることを3行で Pythonの標準ライブラリでできる並列実行を、あらためて総当たりで速度比較しよう ウォーターフォールチャートで、それぞれの並列処理の処理時間の特徴を可視化しよう boto3の実行をモデルケースにして、どの並列処理が一番早いのかを調べよう この記事の結論を先に Python 3.12から本格的に使えるようになったサブインタープリターは、CPUで実行する処理について言えば、従来のサブプロセスよりも高速 boto3の実行は、サブインタープリターよりも署名付きURLの非同期実行のほうが速い → S3からの10ファイルの取得であれば、実行時間を90%削減できます → Bedrockの3回実行であれば、実行時間を60%削減できます 今回使ったソースコードはこちらに置いています。 お手持ちの環境で再実行できるようにしていますので、気になる方はぜひ。 どうしてこの記事を書くの

                                              Python 3.12で増えた並列処理と、これまでの並列処理の挙動を比べてみる - Qiita
                                            • [LangGraph] 自律的にプログラムを実行するLLM Agentを作るための60行スクリプト

                                              60行スクリプトシリーズ第二弾。前回はこちら この記事はMultiAgent作成フレームワーク「LangGraph」に興味がある人が手っ取り早く動かしてみることを目標にした記事です。 この記事を見てできること 指定のお題に対して、関数で定義したツール実行(Web検索など)をする。 実行結果を元に答えを返す。答えがわかるまでツール実行を繰り返す。 このワークフローの拡張性も意識して、組み込みのワークフローは利用しない方針で作成しています。 まずはセットアップ # 必要なライブラリをインポート import argparse from langchain_community.tools.tavily_search import TavilySearchResults from langchain_openai import ChatOpenAI from langgraph.checkpoin

                                                [LangGraph] 自律的にプログラムを実行するLLM Agentを作るための60行スクリプト
                                              • 【書籍メモ】『Pythonによる金融テキストマイニング』(朝倉書店) - u++の備忘録

                                                『Pythonによる金融テキストマイニング』(朝倉書店)を読みました。180 ページ弱で金融関連文書を題材にした話題がまとまっていて、この領域に飛び込む初学者向けに紹介しやすい書籍だと感じました。 www.asakura.co.jp 章立てを以下に示します。第 1 章で全体像を示した後、第 2 、 3 章で開発環境構築と MeCab などのツール・ライブラリを紹介します。第 4 章から第 7 章は、応用事例です。最後に第 8 章で、書籍内で扱えなかった話題や将来展望を解説しています。 金融テイストマイニングの概要 金融データ解析・機械学習の環境構築 テキストマイニングツールの使い方 多変量解析を用いた日銀レポート解析と債券市場予測 深層学習を用いた価格予想 ブートストラップ法を用いた業績要因抽出法 決算短信テキストからの因果関係の抽出 金融テキストマイニング応用の課題を将来 まず、第 4

                                                  【書籍メモ】『Pythonによる金融テキストマイニング』(朝倉書店) - u++の備忘録
                                                • 【随時更新】主要な大規模言語モデル比較表

                                                  これはなに? ひょんなことからOpenAI・Anthropic・GoogleのLLMの一覧表を作りました 手前味噌ながら便利だなと思ったのでZennにも載せておきます 各社のモデルの主要諸元・費用に加えて、自分の印象を書いてあります。 性能の目安としてChatbot Arenaのスコアを参考までに添付しています これはあくまで参考用かつ英語での評価なので、スコアが一番高いものがいい、もしくは低いからダメというわけではありません。 少なくともこの記事に掲載されているモデルは、スコアが低いものでも単純な翻訳などでは十分な性能を持っています。そして何より高性能モデルとは比較にならないほど高速です。 用途や使用言語によって試してみて最適なものを選ぶのが良いでしょう OpenAI 歴史的経緯もあり、以下の表に掲載するもの以外にも大量のモデルがあります。 一旦は最新のモデルを列挙します。 モデル名 A

                                                    【随時更新】主要な大規模言語モデル比較表
                                                  • Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog

                                                    2.3k{icon} {views} 複数のLLM(GPT/Claude3)とArxivの検索APIをRAGで統合し、論文サーベイの自動生成を作りました。検索結果の前処理や、サーベイ特有のプロンプトエンジニアリングやソートが重要で、最適化手法として古くからある巡回セールスマン問題(TSP)が有効に機能しました。また、生成部分ではGPTよりClaude3の明確な有効性を確認できました。 できたもの Arxivの検索APIを使って検索拡張生成(RAG)したらサーベイを自動生成できた やっていること Arxivの検索ワードをGPT-4-Turboで生成 ArxivのAPIを叩いてヒューリスティックでフィルタリング OpenAIのEmbedding APIを叩く Embeddingに対して巡回セールスマン問題(TSP)を解いてソートをかける 論文の要旨をGPT-3.5-Turboで要約 ソートした

                                                      Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog
                                                    • 表記揺れ検出ツール「テキストゆれないくん」 - inzkyk.xyz

                                                      その他のサンプル: Wikipedia:良質な記事, Wikipedia:長いページ 紹介 「テキストゆれないくん」は文章に含まれる表記揺れを検出するツールです。「コンピュータ」と「コンピューター」、あるいは「全て」と「すべて」といった同じ単語の別表記が使われていないかどうかをチェックできます。 「テキストゆれないくん」は元々このサイト (https://inzkyk.xyz/) の文章校正用に開発されました。機能が成熟してきたので UI を付けて公開します。 このページから手動で使う限り、「テキストゆれないくん」は商用/非商用を問わず自由に使って構いません。「テキストゆれないくん」は無保証で提供されます。 特徴 ウェブブラウザから使える このページをウェブブラウザで開いているなら、「テキストゆれないくん」は既に動いています。このページの最初にあるのは「テキストゆれないくん」を使うための完

                                                        表記揺れ検出ツール「テキストゆれないくん」 - inzkyk.xyz
                                                      • 【OpenELM】iPhone・iPadでも動作できるApple最新小型オープンLLM | WEEL

                                                        WEELメディア事業部LLMライターのゆうやです。 2024年4月24日、ついにあのAppleからオープンソースLLMである「OpenELM」が登場しました! Appleが「OpenELM」なるAIモデルファミリーをオープンソースでリリース! ネットに接続なしで、完全にデバイス上で動く前提でを重視して作ったとのこと。 これはスマホ上で動く大本命LLMになる可能性大! pic.twitter.com/N25jNwQzq5 — とーます|AIX人材育成|AIコーチ開発|可能性開花をAIX (@Xroid_Lab) April 24, 2024 このモデルは、4つの異なるサイズ(270M、450M、1.1B、3B)で公開され、軽量で実行コストが低いためAppleデバイスでも動作します。また、「layer-wise scaling戦略」を使用し、効率的にパラメータを活用することで他の同規模モデルよ

                                                          【OpenELM】iPhone・iPadでも動作できるApple最新小型オープンLLM | WEEL
                                                        • 基本概念から理解するAzure AI Search - Azure OpenAI Serviceとの連携まで - 電通総研 テックブログ

                                                          こんにちは。XI 本部AIトランスフォーメーションセンター所属の山田です。 先日、部内の勉強会でAzure AI Searchについて紹介したので、テックブログでもその内容を紹介したいと思います。 Azure AI Searchとは? Azure AI Searchに保存されるデータに関する用語と概念 Azure AI Searchのスケーラビリティに関する用語と概念 Azure AI Searchでサポートされる検索の仕組み 全文検索について Azure AI Searchのアナライザー ベクトル検索について ベクトルの近傍検索アルゴリズム ハイブリッド検索 検索インデックスのスキーマ設計 検索インデックスにドキュメントを追加する方法 Pushモデル Pushモデルを利用する場合のアーキテクチャの例 Pullモデル Pullモデルを利用する場合のアーキテクチャの例 インデクサーの計算リソ

                                                            基本概念から理解するAzure AI Search - Azure OpenAI Serviceとの連携まで - 電通総研 テックブログ
                                                          • AnthropicAI Tool で Retrieval-Augmented Generation を実装してみた

                                                            LangChain なんか使わなくてもシュッと作れたので記事にしておく。 RAG とは 生成AIに検索能力をもたせるやつ。 要は検索機能をこちらで提供してやって、AIにそれを読ませる。 AnthropicAI Tool OpenAI でいう Function Calling JSONSchema で関数シグネチャを与えると、それを使うDSLを生成する。実際の関数は自分で実装して、AI が生成した引数(JSONSchema に従う)を渡す。 TypeScript の Mapped Types でツールの実装部分に型をつける簡単なラッパーを書いた。 RAG の CLI を作る Google検索をするAPIを実装 Google Custom Engine API を使った 本文要約をするAPIを実装 Mozilla の実装を使った 与えられた URL を fetch して、その本文部分を抽出する

                                                              AnthropicAI Tool で Retrieval-Augmented Generation を実装してみた
                                                            • 無料で商用利用可能なSQL生成・コーディング・命令フォローなどのエンタープライズタスクに最適化された大規模言語モデル「Snowflake Arctic」が登場

                                                              クラウドベースのデータウェアハウスサービスを展開する企業のSnowflakeが、トップレベルのエンタープライズ向け大規模言語モデル(LLM)として「Snowflake Arctic」をリリースしました。Apacheライセンス バージョン2.0で提供されるオープンなモデルとなっており、無料で商用利用も可能です。 Snowflake Arctic - LLM for Enterprise AI https://www.snowflake.com/blog/arctic-open-efficient-foundation-language-models-snowflake/ Snowflakeの調査では、企業ユーザーはAIを使用して主にデータ支援やコード支援、検索拡張生成(RAG)を行うチャットボットを作成したい場合が多いとのこと。そこで、Snowflakeは「コーディング能力」「SQL生成能力

                                                                無料で商用利用可能なSQL生成・コーディング・命令フォローなどのエンタープライズタスクに最適化された大規模言語モデル「Snowflake Arctic」が登場
                                                              • Rails × ruby-spacy 環境を Docker で構築して自然言語処理に入門する

                                                                Rails で構築しているアプリケーションで自然言語処理を行いたかったので、Ruby で自然言語処理を行えるライブラリの ruby-spacy の検証を行うために docker で環境構築を行うことにしました。 後述しますが、単なる gem ではなくある程度準備が必要なもので、はまった個所もいくつかあったので、備忘録として残します。 ruby-spacy とは ruby-spacy とは Yoichiro Hasebe さんによって開発されたライブラリで、Python 用の自然言語処理ライブラリである spaCy を Ruby で利用できるようにしたライブラリです。 spaCy とは、Python/Cython で構築された自然言語処理を行うためのライブラリで、訓練済みの統計モデルを使用することができます。 参考: https://spacy.io/ 参考: https://ja.wiki

                                                                  Rails × ruby-spacy 環境を Docker で構築して自然言語処理に入門する
                                                                • LLMプロダクト開発とはどういうものなのか?|erukiti

                                                                  LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由という記事を書きました。 mutaguchiさんのツイートを見て、LLMプロダクトの開発とはどういうものなのかを知らない人も多いのかなと気づいたので、そこらへんを記事として書いてみます。 https://t.co/4WvjuuoGnC 「LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由」の記事のはてブコメント見てたんだけど、ほとんど理解されてなかったのが興味深い。 ・プロプライエタリなLLMでは、ランニングコストが嵩み、これを利用したサービスは成立しづらい… — mutaguchi (@mutaguchi) April 24, 2024 商用LLM APIとローカルLLMって使い方が全然違う気がしてる。 商用LLM APIって、機微情報を送らないこと、規約違反テキストを送らないこ

                                                                    LLMプロダクト開発とはどういうものなのか?|erukiti
                                                                  • Microsoftの最新SLM Phi-3-miniをGoogleコラボで動かしてみた - Qiita

                                                                    はじめに Microsoft社が2024年4月23日に商用利用可な小型言語モデル(SLM)のPhi-3(mini(3.8B)、small(7B)、medium(14B))を発表し、同日miniについて公開しました。 *3.8B〜14Bのため大規模言語モデル(LLM)とは言わず小規模言語モデル(SLM)と言っているのは共感が持てます。他の言語モデルも名称を共通化して欲しいですね😁 どのくらいの精度のものなのか早速検証してみました。 検証環境 今回は、Phi-3-mini-4k-Instructモデルを使用しました。 Googleコラボ Pro+ で A100 環境を使用しました。GPU RAMが8.4GB程度で動いているのでV100等でも動くと思います(なお、CPUでも動くとありましたがCPUリソースでは筆者の環境では残念ながらレスポンスが返ってきませんでした)。 パラメータは、max_n

                                                                      Microsoftの最新SLM Phi-3-miniをGoogleコラボで動かしてみた - Qiita
                                                                    • AWS、生成AIアプリの構築、展開基盤「Amazon Bedrock」の新機能を発表

                                                                      Amazon Web Services(AWS)は2024年4月23日(米国時間)、基盤モデルを使用した生成AIアプリケーションの構築、展開を支援する「Amazon Bedrock」サービスの新しい機能を発表した。新機能には、カスタムモデルインポート、モデル評価、「Guardrails for Amazon Bedrock」があり、使用可能な基盤モデルの選択肢も拡大している。 Amazon Bedrockは、大手AI企業の高性能な基盤モデルを、生成AIアプリケーションの迅速な構築、展開に必要な機能やエンタープライズグレードのセキュリティを含めて幅広く提供するフルマネージドサービスだ。発表内容の概要は以下の通り。 カスタムモデルインポート機能 関連記事 日本と中国を含むアジア太平洋地域の生成AI支出、2027年までに260億ドルに IDC予測 IDCによると、アジア太平洋地域(日本と中国を含

                                                                        AWS、生成AIアプリの構築、展開基盤「Amazon Bedrock」の新機能を発表
                                                                      • ローカルLLM on iOS の現状まとめ

                                                                        2024年3月5日に開催されたイベントで発表した内容です。 スライドはこちら: またLTで全然時間が足りなかったので、イベント終了後にひとりで撮ったプレゼン動画がこちら: 以下、発表資料を記事として再構成したものになります。登壇後に調査した内容も追記しています。 「ローカルLLM on iOS」のデモ オンデバイスで [1]処理してます APIは叩いていません 倍速再生していません 8.6 tokens/sec iOSローカルでLLMを動かすメリット オフラインでも動く プライバシーが守られる(データがどこにもアップされない) どれだけ使っても無料 モバイル端末スタンドアローンで最先端の機能が動作することには常にロマンがある iOSでローカルLLMを動かす方法 大きく分けて2つ llama.cpp Core ML llama.cpp LLMが高速に動くランタイム C/C++製 Georgi

                                                                          ローカルLLM on iOS の現状まとめ
                                                                        • AppleがiPhoneやiPadでローカルに動作するオープンソースの言語モデル「OpenELM」をリリース

                                                                          Appleの研究チームが、オープンソースの言語モデル「OpenELM(Open-source Efficient Language Models)」を公開しました。公開されたモデルにはAppleデバイスで動作できるように変換するコードも用意されており、「言語モデルをAppleデバイス上でローカルに実行させる」ことが可能になっています。 [2404.14619] OpenELM: An Efficient Language Model Family with Open-source Training and Inference Framework https://arxiv.org/abs/2404.14619 OpenELM: An Efficient Language Model Family with Open-source Training and Inference Framewo

                                                                            AppleがiPhoneやiPadでローカルに動作するオープンソースの言語モデル「OpenELM」をリリース
                                                                          • Apple、iPhoneでも稼働するオープンな言語モデル「OpenELM」を公開

                                                                            米Appleの研究者らは4月24日(現地時間)、オープンソースの言語モデル「OpenELM」(ELMはEfficient Language Model、効率的な言語モデルの略)をHugging Faceで公開した。 パラメータ数の異なる4つのモデルがある。小さいものから、2億7000万、4億5000万、11億、30億(パラメータとは、意思決定でモデルがトレーニングデータセットから理解する変数の数を示す)。 AppleがAIのモデルを公開することはこれまでほとんどなかったが、OpenELMの「広範なリリースは、オープンな研究コミュニティを支援し、発展させることが目的」という。 Appleは、OpenELMとともに、開発者がモデルをソフトウェアに組み込めるように設計された複数のツールもオープンソース化した。その中にはiPhoneやMac上でモデルを実行できるようにするライブラリも含まれる。 「

                                                                              Apple、iPhoneでも稼働するオープンな言語モデル「OpenELM」を公開
                                                                            • OpenAI、日本特化型の製品開発へ 迎え撃つイライザ「むしろ安心した」

                                                                              この記事の3つのポイント OpenAIが日本語LLMの開発を発表し、国産AI企業に波紋 KDDI傘下入りで話題のイライザCEOは動じず「むしろ安心」 投資対効果の高いカスタマイズ戦略でOpenAIと共存へ 米OpenAI(オープンAI)が4月15日、生成AI(人工知能)のコア技術である大規模言語モデル(LLM)を日本語に特化させると発表した。競争が激化する中、国産AI企業はオープンAI上陸の波紋をどう受け止め、今後の成長戦略をどう描くのか。東京大学発の生成AIスタートアップで、3月にKDDIグループ入りして話題を集めたイライザ(ELYZA、東京・文京)の曽根岡侑也代表取締役CEO(最高経営責任者)に話を聞いた。

                                                                                OpenAI、日本特化型の製品開発へ 迎え撃つイライザ「むしろ安心した」
                                                                              • Snowflake Arctic - LLM for Enterprise AI

                                                                                Building top-tier enterprise-grade intelligence using LLMs has traditionally been prohibitively expensive and resource-hungry, and often costs tens to hundreds of millions of dollars. As researchers, we have grappled with the constraints of efficiently training and inferencing LLMs for years. Members of the Snowflake AI Research team pioneered systems such as ZeRO and DeepSpeed, PagedAttention / v

                                                                                  Snowflake Arctic - LLM for Enterprise AI
                                                                                • LEIA: 言語間転移学習でLLMを賢くする新しい方法

                                                                                  Studio Ousiaと理化学研究所に所属している山田育矢です。 この記事では、大規模言語モデル(LLM)の性能を向上させる新しい方法であるLEIA(Lightweight Entity-based Inter-language Adaptation)を紹介します。 LLMは言語によって性能に顕著な差があり、訓練に使われるテキストが最も多い英語において特に性能が高い傾向があることが知られています。LEIAは、LLMが蓄えている英語の知識を他の言語から使えるようにする訓練を施すことで、英語以外の言語でのLLMの性能を向上させる新しい手法です。 この度、英語・日本語の2言語LLMであるSwallowの7Bと13Bのモデルに対してLEIAによる訓練を施して性能向上を行ったモデルを公開します。 ライセンスは、Swallowと同様のLlama 2 Community Licenseです。これらのモ

                                                                                    LEIA: 言語間転移学習でLLMを賢くする新しい方法