タグ

llmに関するebibibiのブックマーク (37)

  • 最近ローカルLLMがアツいらしい

    最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAI命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

    ebibibi
    ebibibi 2024/05/21
  • GitHub - jina-ai/reader: Convert any URL to an LLM-friendly input with a simple prefix https://r.jina.ai/

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - jina-ai/reader: Convert any URL to an LLM-friendly input with a simple prefix https://r.jina.ai/
    ebibibi
    ebibibi 2024/04/30
    なるほど、サイトをLLMで利用しやすい形に整形してくれるサービスって感じですか。
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    ebibibi
    ebibibi 2024/04/25
    なるほどー。欲しくなってきた。すぐに買えるは買えるなあ…。
  • ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について

    Zero Waste, Radical Magic, and Italian Graft – Quarkus Efficiency Secrets

    ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について
  • 高木浩光@自宅の日記 - 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない

    ■ 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない 分野による話かもしれないが、研究が論述によってのみ成り立つ分野では、理解されてナンボであるため、その普及広報活動に悩まされることになる。ここの日記でも何度か自分の成果を紹介するエントリを書いた*1が、反応が薄くて徒労感がある。先月も書いたように、解説というものは、読み手の理解状況に合わせてカスタマイズする必要があるのだが、人が解説しようとすると、どうしても全部を説明しようとしてしまって、結局原文を読むのと違わなくなってしまうので、第三者からの「一部を切り取った解説」が求められるのである。 そこで対話型LLMである。究極的には、自分が書いてきた文章の全てをLLMに「理解」させて、あらゆる質問に答えるbotを提供することを目指すことになる。「自分の能力をそんなbotに安売りさせてどうすんだ」という声もあるかもしれ

    ebibibi
    ebibibi 2024/04/09
    Claude3のコンテキストサイズは流石ですね。
  • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信している筆者は忙殺されていた。 春節中にはOpenAIがSoraを、GoogleがGemini1.5を発表したのは、その合間を縫ってのことだった。もはやAI最前線の戦いは研究が行われる場所の文化や風土に影響を受けるところまで来ている。 そして春節もあけた今週、さっそくAlibabaがとんでもないトーキングヘッドモデルを引っ提げて登場したかと思えば、Microsoft中国チームがとてつもないLLMをリリース

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
    ebibibi
    ebibibi 2024/02/29
    期待!
  • AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】

    TOPコラム海外最新IT事情AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 2024年1月23日 米Metaと米ニューヨーク大学に所属する研究者らが発表した論文「Self-Rewarding Language Models」は、大規模言語モデル(LLM)が自分自身に報酬を与えることで繰り返し学習する「自己報酬型言語モデル」を提案した研究報告である。このモデルは、自身が生成した問題に対する応答に報酬を割り当て、その結果をトレーニングデータとして使用。自己を反復して訓練することで、精度を向上させられる。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容

    AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】
    ebibibi
    ebibibi 2024/01/23
    ここまでしてしまったらあとはもうぐるぐる回すだけなのでは…
  • 松尾研 LLM講座 講義コンテンツ | 東京大学松尾研究室 - Matsuo Lab

    松尾研究室が2023年9~10月に東京大学サマースクールで開催した LLM 大規模言語モデル講座のコンテンツを無償公開しています。 講座は約2,000名の受講者が参加し、全7回の講義を実施しました。 最終課題としてGPUを使ったコンペティションでは約800名が参加し熱戦を繰り広げました。 現在、講義のスライドのみ公開しております。 ダウンロードは利用規約を確認の上、下記からダウンロードをお願いいたします。 最終更新: 2024年2月10日 問題・フィードバック報告フォームはこちら 第1回:Overview of Language Models LLMの概要、今後の各回の講義の概要、および日のLLM開発状況について 第2回:Prompting and Augmented Language Model 事前学習済みLLMを追加学習せずに活用する技術(プロンプティング、⽂脈内学習、Augme

    松尾研 LLM講座 講義コンテンツ | 東京大学松尾研究室 - Matsuo Lab
  • 大規模言語モデル「Phind」がコーディングにおいてGPT-4を上回る

    生成AIを用いた開発者向けの検索エンジン「Phind」が、コーディング能力でOpenAIのGPT-4を上回ったことが明らかになりました。 Phind - AI Search Engine and Pair Programmer https://www.phind.com/blog/phind-model-beats-gpt4-fast Our GPT-4-beating coding model is now the default on https://t.co/epkoFW8Ozz. It's also 5x faster than GPT-4. Learn more in our blog post: https://t.co/PrOFETEbvd— Phind (@phindsearch) PhindはもともとHello Cognition(beta.sayhello.so)として

    大規模言語モデル「Phind」がコーディングにおいてGPT-4を上回る
    ebibibi
    ebibibi 2023/11/02
    目的を特化させればより良いものがより軽く実現できるようになってきてるから、目的別に複数LLMを使い分ける時代がすぐきそう。そしてそれらを統合するLLMもきそう。
  • 社内情報検索システムで用いられるRAGの4つの実装方法

    2 松 和高
 株式会社エクスプラザ リードエンジニア
 X: _mkazutaka
 Github: mkazutaka
 18年にバックエンドエンジニアとしてメルカリに入社。その後、ミラ ティブ、フリーランスを得て株式会社エクスプラザに所属。フロント エンドからバックエンドまで幅広く開発しています。趣味で、FXの自 動売買Botを作成している
 現在08/30に第一子が生まれ現在育休中
 https://note.com/mkazutaka/n/n9f0e2c4dee96 CONFIDENTIAL INFORMATION: Not for Public Distribution - Do Not Copy 3 株式会社エクスプラザ (EXPLAZA, Inc.) 会社名 プロダクトの力で、豊かな暮らしをつくる ミッション 代表取締役CEO 高橋一生 代表者 2020年07月03日 設

    社内情報検索システムで用いられるRAGの4つの実装方法
    ebibibi
    ebibibi 2023/11/01
    参考になりました。複雑にすればいいってわけじゃないところが難しいですね。
  • LLMが普通のPCでも動く時代、ついに到来

    LLMが普通のPCでも動く時代、ついに到来
    ebibibi
    ebibibi 2023/10/26
    Lenovo Hybrid AI
  • LLMのプロンプト技術まとめ - Qiita

    現在,34個掲載(一部執筆途中) よかったらData Science wikiのGPTsも見て下さい! はじめに 今回はすぐに使えそうなプロンプトの工夫やフレームワークについて有名なものをまとめました.LMの出力の精度向上に役立てられればと思います. 論文があるものについてはarXivに最初に投稿された順番で掲載しています. 論文で精度向上が確認されているのは英語での検証がほとんどであるため,日語で改善されるかは分かりません. 全てのLLM(GPT-4,Llama2,...)で精度が改善するとは限りません. ※記事に誤り等ありましたらご指摘いただけますと幸いです. 以下の記事では敵対的プロンプト技術をまとめています! 目次 Zero-shot prompting Few-shot prompting 2021年〜 Generated Knowledge Prompting 2022年〜

    LLMのプロンプト技術まとめ - Qiita
  • リポジトリ全体のコーディング作業を一気に自動編集する生成AI「CodePlan」 米Microsoftが開発

    このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 Microsoft Researchに所属する研究者らが発表した論文「CodePlan: Repository-level Coding using LLMs and Planning」は、単なる一部のコード編集にとどまらず、リポジトリ全体のコーディング作業を計画的に自動編集するための大規模言語モデル(LLM)を使用したフレームワークを提案する研究報告である。 近年、LLMによるプログラミングの自動化が進展を見せている。「Amazon Code Whisperer」「GitHub Copilot」「Replit」などのツールは、自然言語の意

    リポジトリ全体のコーディング作業を一気に自動編集する生成AI「CodePlan」 米Microsoftが開発
    ebibibi
    ebibibi 2023/10/06
    これは凄いな。LLM自体も進化しつつ、その周辺の応用方法も進化し続けることを考えると本当に凄い…。
  • Stability AI、ノートPCでも動作する大規模言語モデル(LLM)を発表

    Stabilty.AIは10月3日、ノートPCなど計算能力のあまり高くないPCでも動作するように設計されたコンパクトな大規模言語モデル(LLM)「Stable LM 3B」のリリースを発表した。ライセンスは商用利用も可能なオープンソースの「CC-By-SA 4.0」となっている。 軽量・高速にもかかわらず高度な自然言語処理が可能 2023年4月20日に最初のバージョン(3Bおよび7Bパラメーター)が発表された同社のLLM「Stable LM」シリーズだが、今回のリリースは高速な実行速度を維持しながら、テキストを生成する能力が大幅に向上しているという。 高品質なデータで複数回学習させた結果、30億パラメータ(業界で通常使用されるのは70億~700億パラメータ)にもかかわらず、一般的な自然言語処理ベンチマーク性能も向上しており、従来の30億パラメーター言語モデルはもちろん、70億パラメーター規

    Stability AI、ノートPCでも動作する大規模言語モデル(LLM)を発表
    ebibibi
    ebibibi 2023/10/04
    ローカルで動く軽量なLLMの選択肢もどんどん広がってますね。
  • Azure OpenAI Service リファレンスアーキテクチャからみる本番システムレベルの LLM アプリに必要な検討項目の解説 / From Azure OpenAI Reference Architecture to Production-Ready LLM Apps #serverlessdays #serverlesstokyo

    ServerlessDays Tokyo 2023 で Azure OpenAI Service リファレンスアーキテクチャからみる、番システムレベルの LLM アプリに必要な検討項目の解説 / From Azure OpenAI Reference Architecture to Production-Ready LLM Apps というタイトルで紹介しました HP: https://tokyo.serverlessdays.io/ Ticket: https://serverless.connpass.com/event/290640/ #serverlessdays #serverlesstokyo

    Azure OpenAI Service リファレンスアーキテクチャからみる本番システムレベルの LLM アプリに必要な検討項目の解説 / From Azure OpenAI Reference Architecture to Production-Ready LLM Apps #serverlessdays #serverlesstokyo
  • GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ

    はじめに 結論 背景 課題 Fine-tuning とは? Data の準備 Fine-tuning を実施 結果 おわりに 参考 はじめに こんにちは、DROBE の都筑です。 みなさん LLM 使っていますか。今回は GPT-3.5-turbo の Fine-tuning の事例を紹介します。 結論 GPT-4 を利用して得られたデータを使って GPT-3.5-turbo を Fine-tuning する事で、特定のタスクに関しては GPT-4 相当の性能が出る事が確認できた GPT-4 利用時点で使っていたプロンプトをそのまま使った場合の性能が一番高く、token 節約のためにプロンプトの省略をすると性能が劣化した 背景 LLM を利用したサービスの開発において、OpenAI を利用する場合にはモデルの選択肢がいくつかあります。2023年9月現在では、GPT-4 と GPT-3.5-

    GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ
  • LLMのファインチューニング で 何ができて 何ができないのか|npaka

    LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ

    LLMのファインチューニング で 何ができて 何ができないのか|npaka
  • AIはどのような仕事ができるようになったのか?ChatGPTで変わる「優秀な人材」

    この図はざっくりと3つの領域に分かれます。まず左下が従来のプログラミングの領域です。これは簡単に言うと「プログラムは間違ってはいけない定形な仕事を奪う」ということです。次にその上の士業が責任を取る領域です。これは「責任」を取る人がいないと成立しない仕事です。ミスが発生した際に罰則を与えるという形で、ミスの発生を防いでいます。最後に右側のホワイトカラーの仕事の領域です。ホワイトカラーの仕事は入出力が不定形であり、作業フローも非定型であったりします。そのため、多少のミスはあっても仕方ないという前提の上で仕事が行われています。 機械学習がビジネスに組み込まれるにつれ、ホワイトカラーの仕事領域はそれらによって少しずつ代替されつつあります。その図がこちらになります。 ホワイトカラーの担っていた領域は、表データの機械学習(重回帰や、Lasso回帰、SVM、RandomForest、LightGBMなど

    AIはどのような仕事ができるようになったのか?ChatGPTで変わる「優秀な人材」
    ebibibi
    ebibibi 2023/08/17
    この記事の分類の仕方、いいですね。
  • NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発

    NECは、Generative AI(生成AI)における日語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的なモデル、いわゆるファウンデーションモデル(注1)です。独自の工夫により高い性能を実現しつつパラメータ数を130億に抑えたLLMは、消費電力を抑制するだけでなく、軽量・高速のためクラウド/オンプレミス環境での運用が可能となります。性能面では、日語の知識量や文書読解力を計測する日語の一般的なベンチマーク(注2)で、世界トップクラスの日語能力を実現しています。 NECではLLMをすでに社内業務で活用を始めており、文書作成や社内システム開発におけるソースコード作成業務など、様々な作業の効率化にも応用しています。 昨今、「ChatGPT」を始めとする生成AIが世界的

    NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発
    ebibibi
    ebibibi 2023/07/06
    日本人が日本語でつかう、ローカルで動かす…というようなケースでは結構よい選択肢なのではという気がしますね。
  • GitHub - bentoml/OpenLLM: Operating LLMs in production

    OpenLLM is an open-source platform designed to facilitate the deployment and operation of large language models (LLMs) in real-world applications. With OpenLLM, you can run inference on any open-source LLM, deploy them on the cloud or on-premises, and build powerful AI applications. Key features include: 🚂 State-of-the-art LLMs: Integrated support for a wide range of open-source LLMs and model ru

    GitHub - bentoml/OpenLLM: Operating LLMs in production
    ebibibi
    ebibibi 2023/07/04
    LLMを本番利用するためのプラットフォームとのこと。多数のLLMに対応。