タグ

llmに関するsh2のブックマーク (58)

  • Continue + Ollama でタブ補完(β)を機能させるまで

    ローカルLLMでGitHub Copilotのような開発ができるようにしました。 Continue と Ollama を用いましたが、タブ補完がβ版ということもあってか設定で躓いたので、記事にしました。 TL;DR Ollamaを起動し、API経由のアクセスが有効か確かめます config.jsonの設定後、VSCodeを再起動します(2024-05-02時点では必要) Continueのタブ補完実行時、VSCodeのOutputタブとOllamaのserver.logでデバッグを行います。 技術選定 GitHub Copilotに代わるアシスタントとしては、Cursor, Continue, Tabby を比較しました。 今回は完全ローカルで動作するContinueを選択しました。 Cursorは2024‐05‐02時点ではCursorのサーバーを経由してLLMにアクセスしているため、n

    Continue + Ollama でタブ補完(β)を機能させるまで
    sh2
    sh2 2024/05/09
    Windowsでの構築事例
  • テキスト生成APIサーバのスループットを高めるbatching algorithms

    はじめに テキスト生成モデルをAPIサーバでホストする需要が増えてきている昨今ですが1サーバでできるだけ多くのリクエストをさばくためにはどうすればよいでしょうか?もちろん高速なツールを使うことも重要ですが、それだけでは限界があります。前回の記事ではいくつかのツールを比較しましたが、どのツールでもバッチサイズを上げることで単位時間あたりの処理能力を高めることができるということがわかりました。つまりAPIサーバ側でバッチサイズを大きくする工夫をすることでより多くのリクエストをさばくことが可能になります。 今回の記事ではText Generation InferenceやvLLMなどが採用して注目を集めているContinuous batchingと呼ばれる手法について紹介します。 名称や仕組みなどについてはこれらの解説を参考にしています。 予備知識 Continuous batchingの説明に

    テキスト生成APIサーバのスループットを高めるbatching algorithms
    sh2
    sh2 2024/05/08
    社内用の推論サーバーを作りたくて、この記事と前後の記事を確認する
  • LEIA: 言語間転移学習でLLMを賢くする新しい方法

    Studio Ousiaと理化学研究所に所属している山田育矢です。 この記事では、大規模言語モデル(LLM)の性能を向上させる新しい方法であるLEIA(Lightweight Entity-based Inter-language Adaptation)を紹介します。 LLMは言語によって性能に顕著な差があり、訓練に使われるテキストが最も多い英語において特に性能が高い傾向があることが知られています。LEIAは、LLMが蓄えている英語の知識を他の言語から使えるようにする訓練を施すことで、英語以外の言語でのLLMの性能を向上させる新しい手法です。 この度、英語・日語の2言語LLMであるSwallowの7Bと13Bのモデルに対してLEIAによる訓練を施して性能向上を行ったモデルを公開します。 ライセンスは、Swallowと同様のLlama 2 Community Licenseです。これらのモ

    LEIA: 言語間転移学習でLLMを賢くする新しい方法
    sh2
    sh2 2024/04/25
    こうした手法でLlama 3が日本語上手になるとうれしい
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    sh2
    sh2 2024/04/24
    2024年はMac Studio有力、会社でもL40Sの予算を少し削ってMac Studioを増やそうと画策している。一方2025年になればAMD Zen 5 APUのStrix HaloがLPDDR5X 8533MT/s 8 Channelで546GB/sとの噂、Ryzen AIも搭載しているので対抗馬になるかなと思っている
  • オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

    イノベーションセンター テクノロジー部門 Generative AI PJ の内部勉強会で発表した資料です。Retrieval-Augmented Generation (RAG) において重要な役割を果たす埋め込みモデル(特に日語に特化したもの)について整理しました。

    オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models
    sh2
    sh2 2024/04/24
    E5試してみる
  • 自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ

    最近オープンになる大規模言語モデル(LLM)が、軒並みGPT-4レベルの性能となっています Huggngfaceで無料でダウンロードできるのですが、問題は必要VRAM容量です 話題の、Command-r-Plusは、日語性能について評価が高く、一部の性能はGPT-4並みと言われますが、さすがに大型で104Bパラメータもあるため、4bitに量子化しても60GB程度のVRAMが必要となります。 コンシューマークラスのGPUの最高峰、RTX4090は、VRAM24GBのため、command-r-plusをすべてGPUに載せて推論しようと考えると、3台のマルチGPUデスクトップが必要です しかし、RTX4090は450W消費のGPUのため冷却機構が大きく、1デスクトップに3台収めるのは至難の業となります。 先日、水冷ラジエーター付きRTX4090で、マルチGPUデスクトップを作成しました。 水冷

    自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ
    sh2
    sh2 2024/04/22
    夢がある
  • 生成AIによるプロダクトと生産性向上の舞台裏@2024.04.16

    2024.04.16「先達エンジニアに学ぶ 思考の現在地 Online Conference」での登壇スライドです event link: https://findy.connpass.com/event/313119/ 生成AIを使ってプロダクト作りをしていたり、社内の生産性向上をチャレンジしてる方に少しでも参考になれば幸いです。

    生成AIによるプロダクトと生産性向上の舞台裏@2024.04.16
    sh2
    sh2 2024/04/17
    P33「10 pods NVIDIA Tesla T4で14x cheaper than GPT-3.5 Turbo」へー
  • RTX3060x2のGPUで激安ローカルLLMマシンを構築。 by Yuichiro Minato | blueqat

    こんにちは、安くLLMを構築したいですね。おすすめ構成をお知らせします。 LLMは大規模言語モデルのことで、AIChatGPTみたいに文章を作ってくれます。無料で使えますが、業務で使おうとすると結構難点があるし、データの漏洩とか含めて困りますね。手元のローカルでLLMを作る際のおすすめ構成をお知らせします。 まず、LLMを作るには、マザーボード、CPU、メモリ、SSD、電...

    RTX3060x2のGPUで激安ローカルLLMマシンを構築。 by Yuichiro Minato | blueqat
    sh2
    sh2 2024/04/17
    4060 Ti 16GB×3枚とかできないかなあ
  • langchain/cookbook at master · langchain-ai/langchain

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    langchain/cookbook at master · langchain-ai/langchain
    sh2
    sh2 2024/04/17
    アプリケーションのひな型
  • なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog

    CTO 室の恩田です。 今回は GitHub Copilot Enterprise を評価してみて、現時点ではまだ採用しないことを決めた、というお話をご紹介したいと思います。 きっかけ とあるエンジニアSlack で自身の times チャネルに時雨堂さんの GitHub Copilot Enterprise のススメという記事を投稿したことが発端でした。特に感想はなく URL に 👀 だけが添えられていたので、後で見るぐらいのメモだったんだと思います。 それを見かけた別のエンジニア技術雑談チャネルにその投稿を共有して、これは凄そうと話題を向けたところ、CTO の「評価してみる?」の一言で、有志が集って評価プロジェクトが始まりました。 雑談チャネルできっかけとなる投稿が共有されてから、30分足らずの出来事でした(笑)。 この話題が出たのは金曜日でしたが、週明け早々に稟議を終え、火曜

    なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog
    sh2
    sh2 2024/04/16
    すばらしい
  • コーディング支援AIツールContinueの紹介と構成例 - Qiita

    Continueというコーディング支援AIツールの紹介です。 コーディング支援AIツール・サービスとしてはGitHub Copilotが有名で、次いでCursorやCodeiumあたりが話題性のあるところかと思います。Publickeyに2024年3月時点での情報がまとまっています。 Continueはそれらと比べて知名度は劣りますが以下のような特徴があり、うまく使いこなせば有力な選択肢になると考えています。 ツール体がオープンソースである Visual Studio CodeとJetBrains IntelliJ IDEAの拡張機能がApache License, Version 2.0で提供されています 言語モデルは自分で選ぶ Continueではコード補完用とチャット用で二つの言語モデルを利用しますが、そこでどの言語モデルを選ぶかは利用者側に任されています Continueを開発し

    コーディング支援AIツールContinueの紹介と構成例 - Qiita
    sh2
    sh2 2024/04/06
    会社と個人でGitHub Copilotを契約しているけれど、Continueが安定したら個人用は解約する予定
  • OpenAIに6件の特許取得が判明、「コード生成」や「外部APIの呼び出し」に布石

    OpenAI(オープンAI)が米国で少なくとも6件の生成AIに関連する特許を取得していたことが分かった。同社は特許の取得に消極的とされ、米特許調査会社のIFI CLAIMS Patent Services(IFIクレームズ・パテント・サービス)の調査でも「5件未満」とされていた。日経クロステックとAI人工知能)特許総合検索・分析プラットフォームを手掛けるパテントフィールドが米国特許商標庁で2024年3月末までに公開されている情報を調べ直したところ、6件の特許取得が判明した。詳細をお届けしよう。 6件のうち2件は公開済み。残り4件も特許公報が発行されており、2024年1月から3月までに6件全てで特許権が成立している。特許出願から公開までは原則として1年半を要するため、今後立て続けにオープンAIの特許が公開される可能性がある。 出願者は非営利組織「OpenAI Inc.」でも事業会社の合同

    OpenAIに6件の特許取得が判明、「コード生成」や「外部APIの呼び出し」に布石
    sh2
    sh2 2024/04/04
    コード生成に関する特許が気になる
  • US20240020096A1 - Systems and methods for generating code using language models trained on computer code - Google Patents

    sh2
    sh2 2024/04/04
    OpenAIによるコード生成関連の特許
  • LLMの現在 - Speaker Deck

    今のLLMを取り巻く状況について紹介します。

    LLMの現在 - Speaker Deck
    sh2
    sh2 2024/03/29
    すごい
  • https://www.reddit.com/r/LocalLLaMA/comments/1b27h74/starcoder2_and_the_stack_v2_new_generation_of/

    sh2
    sh2 2024/03/29
    VSCode+Continue+StarCoder2で試してる
  • GitHub Copilotを無料で代替するものが出てた

    ContinueとOllamaとStarCoder2 私はGitHub Copilotを愛用しているのですが、調査を進めた結果「Copilot以外にも無料でできる選択肢がある」という結論になりました。使うものは以下の3つです。 Continue…任意のLLMでコード補完などをするVS Code拡張 Ollama…ローカルでLLMを動かすアプリケーション StarCoder2…比較的新しいコーディング用の軽量LLM Copilotを使う目的はコード補完がメインだと思います。Continueには現在ベータ版ではありますがコード補完機能がついています。以下のように補完が効きます。 ローカルで動かしているだけあってCopilotよりも早く応答することが多いですが、かなり前のめりに提案するような気がします。Continueは良く言えば元気がある、悪く言えば危なっかしい印象を受けました。そこは好みの問

    GitHub Copilotを無料で代替するものが出てた
    sh2
    sh2 2024/03/27
    試してみる
  • プログラミング支援AIサービスまとめ。GitHub Copilot、AWS CodeWhispererなど11種類(2024年3月版)

    GitHub CopilotやAWS CodeWhispererをはじめとする、コードエディタに統合できる11種類のプログラミング支援AIをまとめた。 GitHub Copilotに代表されるコードエディタに統合されたプログラミング支援AIサービスは、まだ登場して間もないにも関わらず、多くのプログラマの生産性向上にとって欠かせない機能になりつつあります。 と同時に、プログラミング支援AIサービスはGitHub Copilot以外にもさまざまなクラウドベンダ、ツールベンダ、スタートアップなどが参入し、多様な製品が新たに投入され続けている変化の激しい分野でもあります。 ここではその中から、現時点での主要なサービスやソフトウェアを11種類取り上げ、まとめました。導入や選択の参考にしていただければと思います。 価格別の主な機能 (Copilot Individual / 月額10ドル/年間100ド

    プログラミング支援AIサービスまとめ。GitHub Copilot、AWS CodeWhispererなど11種類(2024年3月版)
    sh2
    sh2 2024/03/25
    GitHub Copilot使ってるけど数年後にはContinue+ローカルLLMにしたい
  • Prompt Tuning から Fine Tuning への移行時期推定

    公開されている大規模言語モデルをどの程度のデータで Fine Tuning すれば Claude や ChatGPT などの API 公開されているモデルの精度に匹敵するのか検証した資料です。 言語処理学会第30回年次大会 併設ワークショップ 日語言語資源の構築と利用性の向上 (JLR2024) での発表資料です。 実装はこちら https://github.com/aws-samples/aws-ml-jp/tree/main/tasks/generative-ai/text-to-text/evaluation/lm-evaluation-harness 先行し公開したブログ https://aws.amazon.com/jp/blogs/news/cost-efficiency-of-api-and-oss-generative-ai/

    Prompt Tuning から Fine Tuning への移行時期推定
    sh2
    sh2 2024/03/17
    面倒でも両方できるようにしておかないといけないんだな
  • 要約、翻訳ツールにGemini Proを選定した話 - Qiita

    生成品質についてはどうでしょうか。Gemini ProはAnthropic、OpenAIのモデルに比べてハルシネーションが目立つのですが、要約、翻訳といったタスクは与えた情報を変換するだけですのでハルシネーションの心配はそれほどありません。 冒頭に挙げたスクリーンショットと同じタスクをClaude 3 Opusで実行してみましょう。 要約 Google OneのAIプレミアムプランでは、Gmail、Docs、Slides、Sheets、Meetで Geminiを使用してより創造的かつ生産的になることができる。 Google Oneは2018年の開始以来、1億人以上がサブスクライブし、Google Photosやカレンダーの高度な機能を利用している。 AIプレミアムプランでは、最大かつ最も有能なAIモデルである1.0 Ultraを使用したGemini Advancedにアクセスできる。 Gm

    要約、翻訳ツールにGemini Proを選定した話 - Qiita
    sh2
    sh2 2024/03/13
    Claude 3 Haikuが使えるようになったらそちらも試す予定
  • AnthropicのClaude 3 OpusのVision機能を日本語OCRとして使ってみる

    今月4日、AnthropicがClaude 3を発表しました。Anthropicの発表している評価結果では、OpenAI GPT-4やGoogleのGemini 1.0 Ultraを上回る高い性能を示しています。私もClaude 3 Sonnetを使って、翻訳やテストケース作成などの作業をいくつかやってもらいましたが、私の体感でもGPT-4と同等かそれを上回る高い性能だと感じました。 最近の生成AIは画像認識系機能を組み込んでおり、Claude 3もVision機能が提供されています。具体的には写真やグラフ、図などを読み込んで処理する用途が想定されているそうです。 私は以前から、「Azure Computer Vision APIの日語OCR機能を使ってみる」、「Google Cloud Vision APIの日語OCR機能を使ってみる」、「OpenAIのGPT-4 Turbo wit

    AnthropicのClaude 3 OpusのVision機能を日本語OCRとして使ってみる
    sh2
    sh2 2024/03/12
    Claude 3 Opusなら日本語OCRが実用になる