タグ

promptに関するsh19910711のブックマーク (225)

  • 最新のMlflowによるLLMの実験管理

    最近LLMを使った実験をする機会があったので,その実験管理に最新バージョン(2.9.2)のmlflowを使ってみた.そのバージョンではLLMに対するいくつかの便利機能があったので,今回はそれについて書いてみる. Mlflow MLflowは、機械学習のライフサイクルを管理するためのOSSで,モデルのバージョニング、データセットの管理、実験の追跡、デプロイメントなど、機械学習プロジェクトの全体的なプロセスをサポートしている. ドキュメントも充実しており,Mlflowの使い方というより,機械学習の実験管理のベストプラクティスを学ぶ際にもとても有用なものだと思う. MlflowのLLM用機能 Mlflowの最新バージョン(2.9.2)では,LLMの実験管理用の機能がいくつか追加されている. 内容は大きく分けて以下の3つで,それぞれについて紹介していく. デプロイメント ロギング(トラッキング)

    最新のMlflowによるLLMの実験管理
    sh19910711
    sh19910711 2024/04/17
    "MLflow: 最新バージョン(2.9.2)では,LLMの実験管理用の機能がいくつか追加されている / ドキュメントも充実: Mlflowの使い方というより,機械学習の実験管理のベストプラクティスを学ぶ際にもとても有用"
  • LLM差分マージしてみた

    ができます。 ベクトルみたいな感じ もちろん完璧にその能力を移せるわけではないですが、ある程度は能力を引き継げるため、次の学習のための良い初期値を得ることに使うことができます。 やってみた そんな差分マージをやってみました。 今回使ったモデルは Qwen/Qwen-14B lightblue/qarasu-14B-chat-plus-unleashed rinna/nekomata-14b それぞれ、Qwen 14B とその派生モデルであるため今回の差分マージを行うことができます。(アーキテクチャが異なっていたり、フルスクラッチで学習されているときはマージができません) モデルの関係図 Qwen-14B Alibaba が作成した日語もちょっといける中国語、英語のLLMです。この時点で日語チョットデキル感じなので結構すごいです。 nekomata-14B Qwen-14B ベース 学習

    LLM差分マージしてみた
    sh19910711
    sh19910711 2024/04/17
    "差分マージ: モデルの重みを足し算引き算して新しい重みを作る + Stable Diffusion に触れていると馴染みが深いかも + 本当に単純に足したり引いたり / モデル B にファインチューンモデル A の特性をもたせることができる" 2023
  • SnowflakeからClaude3(Bedrock)を呼び出して、文章作成や画像認識させてみた。 - Qiita

    SnowflakeからClaude3を呼び出して、文章作成やさせてみる 今回はSnowflakeのUDFでClaude3(Amazon Bedrock)を呼び出して、文章作成や画像認識させる方法について紹介したいと思います。 最初は文章作成させる方法だけで記事を作成しようと思ったのですが、クイックスタートをなぞるだけの記事になりそうだし、もうSnowflake Cortexでも出来ることなので、ステージ上の画像ファイルを認識する機能も追加してみました。 ちなみに、以下はステージに配置したとある画像をClaude3に説明させた結果です。何だと思いますか。Snowflakeヘビーユーザにはお馴染みのあいつです。 この画像には、可愛らしい白いぬいぐるみのクマが写っています。クマの体はふわふわと柔らかそうに見え、青いニットのマフラーを巻いて寒さから身を守っているように見えます。クマの顔は丸く優しい

    SnowflakeからClaude3(Bedrock)を呼び出して、文章作成や画像認識させてみた。 - Qiita
    sh19910711
    sh19910711 2024/04/17
    "SnowflakeからClaude3を呼び出して、文章作成や画像認識 / UDFからCluade3に接続するには、外部アクセス統合を作成 / BUILD_SCOPED_FILE_URLを使えば、呼び出し元のみからアクセスできる画像URLを作成しUDFに渡すことができる"
  • Claude 3最強のOpusがついにAWSのBedrockに来た!! - Qiita

    Claude 3 Opus、ずっと待ってました! AWSの生成AIサービス、Amazon Bedrock。 多数の生成AIモデルがAPIとして利用できますが、テキスト生成で非常に高性能なのがAnthropic社のClaude 3シリーズです。 OpenAI社のGPT-4シリーズと日々、追いつけ追い越せを続けています。 Claude 3登場後、3モデルあるうち最上位の Opus モデルだけはなかなかBedrockにリリースされませんでしたが、ついに先ほどオレゴンリージョンに出現したようです! まだAWS公式リリースはないですが、近日中にWhat's New等でアナウンスされるものと思われます。 ※今回も宇宙最速の発見者はひるたさんでした。いつもありがとうございます🙌 そもそもBedrockって何だっけ? こちらの資料で紹介していますのでご覧ください! なお、凄腕Bedrockerの @he

    Claude 3最強のOpusがついにAWSのBedrockに来た!! - Qiita
    sh19910711
    sh19910711 2024/04/17
    "Anthropic社のClaude 3シリーズ: 最上位の Opus モデルだけはなかなかBedrockにリリースされませんでしたが、ついに先ほどオレゴンリージョンに出現 / プレイグラウンドだと日本語出力の調子がまだ良くない"
  • LightChatAssistant 2x7B を再現する - ローカルLLM自由帳

    前回Chat Vectorについて簡単に予習したので、とりあえず「LightChatAssistant 2x7B」の作成手順を再現してみたいと思います。 作者さんがモデルカードで丁寧に説明してくださっているので、基的にそれをなぞるだけです。まずはまったく同じモデルを作ってみます。 huggingface.co Chat Vectorによる処理 Google ColabCPU(ハイメモリ)で試します。3つ分のモデルファイルを扱えるだけのRAM容量さえあればよく、GPU無しで完結するようです。 まずは、Chat Vector処理を行うための依存関係をインストールします。ColabだとTransformersはプリインストールされてます。 # 依存関係のインストール !pip install accelerate protobuf さてChat Vectorは、追加学習したチャットモデルの重

    LightChatAssistant 2x7B を再現する - ローカルLLM自由帳
    sh19910711
    sh19910711 2024/04/17
    "Chat Vector: 追加学習したチャットモデルの重みから、対応するベースモデルの重みを差し引くことで得られる差分 / 差分抽出モデルを入れ替えたり、MoEマージの手法を変更することで、いろいろと試行錯誤して楽しむ"
  • インフラ開発のやり方に変革がもたらされるかも? InfraCopilotを試してみた - Qiita

    InfraCopilotを試してみる インフラ基盤のアーキテクチャ設計のあり方を変えてくれそうなサービスとして最近登場してきた「InfraCopilot」を試しに触ってみたので紹介します。 InfraCopilotとは? https://infracopilot.io/ ここの公式サイトで紹介されている通り、インフラの構成をエディタ上で描いてIaCのコードを生成してくれたり、設定を調整したりできるツールです。 設定の調整や構成を作る部分を、チャットベースで指示を出してその意図に合わせて構成を調整してくれるといったこともできます。 このサービスのインプットとアウトプットのイメージは以下のようになります。 インプット ブラウザ内のエディタ上でグラフィカルに設計要素を入力 設計要素(リソース)のパラメータは手動で調整も可能 チャットベースで実現したい構成を指示 アウトプット PulumiのIaC

    インフラ開発のやり方に変革がもたらされるかも? InfraCopilotを試してみた - Qiita
    sh19910711
    sh19910711 2024/04/16
    "解説ページを見るとKlotho Engineというキーワード / Klotho: アプリケーションコードの中に、exposeやpersistという形で情報を宣言 + それに合わせたAWS上でのリソース構成のコードをコンパイルして自動生成してくれる"
  • Vertex AI Agent Builderを使ってみた - G-gen Tech Blog

    G-gen 又吉です。記事は Google Cloud Next '24 in Las Vegas の1日目のキーノートで発表された Vertex AI Agent Builder を触ってみたのでご紹介します。 他の Google Cloud Next '24 の関連記事は Google Cloud Next '24 カテゴリの記事一覧からご覧いただけます。 概要 Agent とは Vertex AI Agent Builder とは 料金 概要 試算例 Vertex AI agents 概要 Agents の構成要素 Goal Instructions Examples Tools 概要 Built-in tools OpenAPI tools Data store tools 触ってみた 関連記事 概要 Agent とは 生成 AI アプリケーションにおける Agent とは、人間

    Vertex AI Agent Builderを使ってみた - G-gen Tech Blog
    sh19910711
    sh19910711 2024/04/15
    "「4x3-2x+1 を微分して」というプロンプト + Agent はユーザーのプロンプトが計算問題だと判断 + Code Interpreter により Python コードが生成および実行 + 結果をもとにユーザーへの回答文を生成 / 料金: Agent に対して $12/1000クエリ"
  • [Claudia][Unity]自然言語によって動く2Dプラットフォーム

    はじめに CysharpからAnthropic Claude APIの.NET用、非公式クライアントライブラリClaudiaが登場しました。このライブラリの登場により、Unity上で簡単にClaude3のAPIを呼び出すことができます。また、Function Callingと呼ばれるLLMの出力から関数を呼び出す機能も簡単に実装できます。今回はClaudiaのチュートリアルとして、自然言語の入力からプレイヤーを操作できる2Dプラットフォームを実施します。 要所のコードを解説したのちに、最後は簡単に試せるサンプルコードを添付しています。 使用するライブラリ 今回使用するライブラリとして、Cysharpから登場したAnthropic Claude APIの.NET用、非公式クライアントライブラリClaudiaを使用します。Claudiaの導入方法に関しては、今回は触れませんがClaudiaリポ

    [Claudia][Unity]自然言語によって動く2Dプラットフォーム
    sh19910711
    sh19910711 2024/04/15
    "自然言語の入力からプレイヤーを操作 / Platformer Microgame: Unity Technologiesが作成 + 2Dプラットフォームの基本が実装されているアセット / ゆっくり左に歩けと指示があれば、引数として-1と0.1が渡され"
  • Gemini API でラジオ番組の音声からの文字起こしを試す|npaka

    「Gemini API」でラジオ番組の音声からの文字起こしを試したので、まとめました。 1. Gemini 1.5 Pro の 音声データ入力「Gemini 1.5 Pro」で音声データでの入力が可能になりました。 サポートしているファイル形式は、次のとおりです。 ・MIMEタイプの制限 ・WAV - audio/wav ・MP3 - audio/mp3AIFF - audio/aiff ・AAC - audio/aac ・OGG Vorbis - audio/ogg ・FLAC - audio/flac ・1プロンプトでの音声データの最大長は 9.5 時間。 ・1プロンプト内の音声ファイルの数には制限ない。 ・音声ファイルは16Kbpsのデータ解像度までリサンプリングされ、複数のオーディオ チャネルは1チャネルに結合される。 2. ラジオ番組の音声の準備今回は、「Claude 3」と

    Gemini API でラジオ番組の音声からの文字起こしを試す|npaka
    sh19910711
    sh19910711 2024/04/15
    "Gemini 1.5 Pro: 1プロンプトでの音声データの最大長は9.5時間 + 音声ファイルの数には制限ない / 音声の準備: 「Claude 3」に台本を書いてもらう + 「VOICEVOX」に読み上げてもらう"
  • LLMコード生成ツール:plandexを試してみた - GMOインターネットグループ グループ研究開発本部

    みなさんこんにちは、グループ研究開発AI研究開発室のK.Fです。 最近、大規模言語モデル(LLM)を活用したコード生成ツールが注目を集めていますよね。先月(2024年3月)には、Devin AIがCognitionから発表され話題を集めていました。まだ、waiting list状態ですが、実際に試せる日が待ち遠しいです。今回は、そのDevin AIに影響され積極的に開発が進んでいるOSSのコード生成ツールを試してみます。 トレンド調査 GitHub Trendingを眺めていると、以下のようなものが注目を集めているようです。 Devika: https://github.com/stitionai/devika OpenDevin: https://github.com/OpenDevin/OpenDevin gpt-pilot: https://github.com/Pythago

    LLMコード生成ツール:plandexを試してみた - GMOインターネットグループ グループ研究開発本部
    sh19910711
    sh19910711 2024/04/14
    "OpenDevin: チャットベース + 環境の構築からファイルの編集まで自動で進めてくれます / plandex: 開発者の生産性向上を目的とされており、cliベースで提供 + 指示を達成するための計画(plan)と、subtasksを書き出し
  • Google検索から生成AIの根拠付けが出来るようになった!!Vertex AI Grounding for Google Searchが公開されました #GoogleCloudNext | DevelopersIO

    ども、 Google Cloud Next'24 現地参加組の もこ@札幌オフィスです。 初日のキーノートで、Google Cloud の機械学習プラットフォームである、 Vertex AIにおいて、Grounding for Google Search(Preview)が公開されました! Grounding overview | Generative AI on Vertex AI | Grounding with Google Search Ground responses for Gemini models Vertex AI Grounding for Google Search とは? 生成AIにおける Groundingは、生成した回答が何を元に生成したかを、参照先を示しつつ生成する仕組みです。 キーノートでは、「401kの拠出限度額はいくらですか?」といった質問に対する回答と

    Google検索から生成AIの根拠付けが出来るようになった!!Vertex AI Grounding for Google Searchが公開されました #GoogleCloudNext | DevelopersIO
    sh19910711
    sh19910711 2024/04/13
    "Vertex AI Grounding: GeminiとGoogle検索を組み合わせて回答を生成 + 生成した内容、引用、Googleで検索するワードの3つを返却 / Google Search entry point: LLMが出力した回答に合わせて、Google検索をするときのワードを返してくれる機能"
  • MLX Swift による LLM のオンデバイス推論を試す|npaka

    「MLX Swift」による「LLM」のオンデバイス推論を試したので、まとめました。 1. MLX Swift「MLX Swift」は、Swiftから利用できる「MLX」で、「MLX」は、Appleが開発した新しい機械学習フレームワークで、「Apple Silicon」(M1/M2/M3など) を最大限に活用するように設計されています。 ・サポートするプラットフォーム ・Mac ・iOS ・visionOS 2. iOSのデモアプリの実行iOSのデモアプリの実行手順は、次のとおりです。 (1) 以下のXcodeプロジェクトをダウンロードして実行。 初回は、モデルダウンロードに時間がかかります。 ・LLMEval (2) 必要に応じてでモデルを切り替え。 ControlViewの150行目で切り替えることができます。 let modelConfiguration = ModelConfigu

    MLX Swift による LLM のオンデバイス推論を試す|npaka
    sh19910711
    sh19910711 2024/04/13
    "MLX Swift: Swiftから利用できる「MLX」 / MLX: Appleが開発した新しい機械学習フレームワーク / 「iPhone 12」の6GBでは、「Mistral 7B 4bit」は動作しませんでした。「iPhone 15 Pro」であれば8GBなので動くと思われ"
  • Alibaba Cloud Platform for AI の導入とLangChain(PAI-EAS)をデプロイする

    AIの世界は日進月歩で進化しており、それを支える技術として各社から様々なプラットフォームが提供されています。AzureのAzure Machine Learning、AWSAmazon SageMaker、GCPAI Platformが存在していますが、私が今注目しているのはAlibaba CloudのAIプラットフォーム、Alibaba Cloud Platform for AI (PAI)です。日ではまだ馴染みの少ないこのプラットフォームがどのようなものなのか、どんな機能を持っているのかを調べてみました。 PAI の特徴 PAIは 2018年から存在しており、2021年4月にはソフトバンクにてPAIの概要が記載されています。基的には、機械学習Machine Learning)や深層学習(Deep Learning)を行うためのソリューションとなっています。 使いやすく、コスト

    Alibaba Cloud Platform for AI の導入とLangChain(PAI-EAS)をデプロイする
    sh19910711
    sh19910711 2024/04/12
    "PAI: Alibaba CloudのAIプラットフォーム + 2018年から存在 + コンパイルの最適化および推論のデプロイメント(PAI-EAS) / 日本リージョンが存在しない + インスタンス稼働分の従量課金制"
  • 次世代型ジェネレーティブゲームがゲームの常識を覆す!?AIダンジョンのたのしみ方と、AIローグライトの驚愕のアルゴリズム

    最近は、ジェネレーティブゲームについて色々と調べている。 ジェネレーティブゲームって何じゃ?というと、これは私の造語かもしれないが、ジェネレーティブAIを駆使して、ゲームのプレイ中に動的にコンテンツが生成されるゲームの事だ。 例えばゲームプレイ中にキャラクターのグラフィックをその場でAIが描いてくれるとか、キャラの台詞がその場で生成されるといった感じだ。 このような事は去年までは想像する事さえできなかったSFおとぎ話のようなもんだったが、ここ数ヶ月のジェネレーティブAIの進化で急激に現実味を帯びてきた。(私の中ではそうだけど、実は数年前からジェネレーティブAIに着目して色々やってる人達もいる) 前回の記事で、「ジェネレーティブAIはコンテンツの在り方を変えてしまうかもしれない」という話をした。 ジェネレーティブAIで美樹さやかさんを錬成できるのか? かいつまんで言うと、AIによってコンテン

    次世代型ジェネレーティブゲームがゲームの常識を覆す!?AIダンジョンのたのしみ方と、AIローグライトの驚愕のアルゴリズム
    sh19910711
    sh19910711 2024/04/12
    "ひたすら地球に隕石を激突させて、AIが続きをどうするのか試す遊び / ビデオゲーム以前の囲碁や将棋のごとく、一度それを買えば一生それだけで遊べる時代に戻ってしまうかもしれない" 2022
  • Gemini 1.5 Proで文字起こしを試してみた|にょす

    Gemini 1.5 Proが音声ファイルにも対応したということで、Whisper大好きマンとして、どれほどのものなのかを簡単に調査したいと思います。 Gemini 1.5 Pro on #VertexAI also supports processing audio inputs - including music, speech, and even the audio portion of videos. 🎵 This means it can give high-quality transcriptions or be used to search & analyze multimodal content. → https://t.co/CLMN3wNmeP #GoogleCloudNext pic.twitter.com/kEy2vSVpK0 — Google DeepMind

    Gemini 1.5 Proで文字起こしを試してみた|にょす
    sh19910711
    sh19910711 2024/04/12
    "Gemini 1.5 Proが音声ファイルにも対応 / 文字起こし: プロンプトによって出力結果に大きく影響がする感じ + 指示だけでタイムスタンプも紐付けられる / Vertex AIから利用ができました。Google AI Studioからも利用できるようです"
  • BigQueryからGeminiを呼び出し、テーブルのデータを分類させてみた | NHN テコラス Tech Blog | AWS、機械学習、IoTなどの技術ブログ

    はじめに こんにちは、Shunです。 皆さん、生成AIを利用していますか? 文章の要約、校正やプログラムコードの書き換えなど、多種多様な利用方法が一般的になってきました。 今回は、生成AIを活用する一つの方法として、テーブル内のデータを分類させることに焦点を当てます。 これを実現するために、Google Cloudが提供するBigQueryとGeminiを使用します。 参考: リモートモデルと ML.GENERATE_TEXT 関数を使用してテキストを生成する Geminiとは GeminiはGoogleが開発した汎用性と高性能を兼ね備えた最新のAIモデルです。 テキスト、画像、音声、動画、コードなど、多様な種類の情報を理解、操作できるマルチモーダル機能を持ち、複雑な問題解決能力が特徴です。Geminiは、データセンターからモバイルデバイスまで幅広い環境で効率的に動作し、開発者や企業がAI

    BigQueryからGeminiを呼び出し、テーブルのデータを分類させてみた | NHN テコラス Tech Blog | AWS、機械学習、IoTなどの技術ブログ
    sh19910711
    sh19910711 2024/04/12
    "Gemini Proの料金: $0.0025/画像 + ビデオ入力:$0.002/秒 / Geminiを呼び出す際は、ML.GENERATE_TEXTという関数を使用 + promptパラメータを通じてモデルにテキストを送ることで、出力を得ることができます"
  • langchainとDatabricksで(私が)学ぶRAG : BGE-M3を使った埋め込み - Qiita

    最近、Embedding周りの進歩が著しい。 導入 ※ シリーズの一覧はこちら。 BAAI(Beijing Academy of Artificial Intelligence)から、BGE-M3というEmbedding用のモデルが公開されました。 上記サイトの一部を邦訳すると、 プロジェクトでは、多機能・多言語・多粒性において汎用性に優れたBGE-M3について紹介します。 多機能性:埋め込みモデルの3つの一般的な検索機能(密検索、マルチベクトル検索、疎検索)を同時に実行できます。 多言語対応:100以上の作業言語をサポートできます。 多粒性: 短い文から最大 8192 トークンの長いドキュメントまで、さまざまな粒度の入力を処理できます。 という特性を持ったモデルとなります。 単一の埋め込み手段(Dense Vector)だけでなく、Sparse VectorやColBERTのようなM

    langchainとDatabricksで(私が)学ぶRAG : BGE-M3を使った埋め込み - Qiita
    sh19910711
    sh19910711 2024/04/11
    "BGE-M3: 単一の埋め込み手段(Dense Vector)だけでなく、Sparse VectorやColBERTのようなMulti-Vectorもこのモデル単体で得られる + JapaneseEmbeddingEvalでも非常に高い性能 / from FlagEmbedding import BGEM3FlagModel"
  • 生成AIを用いたText to SQLの最前線

    社内の勉強会で紹介しました。 ブログ記事は以下です。 https://aitc.dentsusoken.com/column/The_Forefront_of_Text_to_SQL

    生成AIを用いたText to SQLの最前線
    sh19910711
    sh19910711 2024/04/09
    "Spider(2018): よく使われるデータセット + SQLクエリの難易度を4段階に定義 / SQLクエリ生成のエラー原因: 質問の曖昧さ + SQLの複雑さ、ドメイン知識の不足 + データの複雑さ / 精度向上のためにはメタデータで補足を増やす"
  • GitHub ActionsでZennの下書きをClaudeにレビューしてもらう

    はじめに GitHub ActionsとClaude APIを組み合わせて、Zennの下書きをChatGPTライクなAIモデルであるClaudeにレビューしてもらう仕組みを作ってみたので紹介します。 記事を書くときにPull Requestを作る 僕は普段Zennのリポジトリでは特にレビューしてもらったりということがないのですべてmainブランチで運用していましたが、PRでレビューしてもらうにあたって Pull Request を作るように変更しました。 mainブランチに比べてPR作ったりが面倒なので以下のスクリプトで記事の作成・PRを作成します。 #!/usr/bin/env bash set -eux # 記事名と記事slugを対話形式で入力させる read -p "記事名を入力してください: " title read -p "記事slugを入力してください: " slug # 記事

    GitHub ActionsでZennの下書きをClaudeにレビューしてもらう
    sh19910711
    sh19910711 2024/04/07
    "synchronizedだとdiffを投げるたびにレビューが飛んできてしまう + opened, ready_for_review, reopenedのタイミングでレビュー / machine readable なデータがほしいので json 形式の出力を指定し、assistant 側の { を指定しておくのがポイント"
  • 大規模言語モデルと強化学習:強化学習にLLMを組み込んで実装してみた(ローカルLLM) - Qiita

    はじめに 最近の機械学習の発展はすごいですね。 特に大規模言語モデル(LLM;Large Language Model)の発展が目覚ましく、ChatGPTをはじめ目に見える形で成果が出始めています。1 この技術の進歩に置いて行かれないようにLLMを勉強しつつ強化学習に実装してみました。 記事としては前半はLLMの利用、後半は強化学習のDQNにLLMを組み込んだ実装となります。 PythonからLLMの利用 LLMの利用はBERTでもお世話になったHugging Faceを使います。 ドキュメントがかなり充実しており、チュートリアルをベースに進めてみました。 また今回実行している環境は以下です。 OS : Windows11 Python: 3.12.2 GPU : GeForce RTX3060(memory 12GB) CUDA : 12.1.1 (Torchに合わせています) # To

    大規模言語モデルと強化学習:強化学習にLLMを組み込んで実装してみた(ローカルLLM) - Qiita
    sh19910711
    sh19910711 2024/04/07
    "LLM + DQN: シンプルに大規模モデルの出力層の特徴量をそのままDQNに使う / 入力に使うプロンプトはアクションを聞くような文言にしています / LLaVA-NeXT: マルチモーダル + Image-Text to Text"