タグ

LLMに関するT-norfのブックマーク (46)

  • マイクロソフトのAIツール、Copilotがもたらすコーダーの働き方改革

    A pedestrian walks past the GitHub Inc. offices in San Francisco, California, U.S., on Monday, June 4, 2018. Photographer: Michael Short/Bloomberg ソフトウエア開発者のニコライ・アフテニーブ氏は2021年、米マイクロソフトが提供するコーディングアシスタント「Copilot(コパイロット)」のプレビュー版を手にし、すぐにその可能性を実感した。 マイクロソフトのコーディングプラットフォーム「GitHub(ギットハブ)」で開発され、米オープンAIが提供する生成AI(人工知能)をベースにしたCopilotは、完璧ではなく、時には間違えることもあった。しかしチケット販売会社スタブハブで働くアフテニーブ氏は、わずかなプロンプトで見事にコード行を完成させたこと

    マイクロソフトのAIツール、Copilotがもたらすコーダーの働き方改革
    T-norf
    T-norf 2024/04/18
    評価分かれるね。コメント先に書いてのコード補完(生成)が実用レベルで、あとはGPT-3.5と4.0の違いが大きい。初級者とかベテランでも未習熟言語ではめちゃ便利という印象。あとは何のコードを書いてるか、かな
  • RAGを複雑な質問に強くする手法「CoA」について

    記事では、「Chain-of-Abstraction (CoA) Reasoning」についてざっくり理解します。軽めの記事です。 株式会社ナレッジセンスでは普段の業務で、生成AIやRAGシステムを活用したサービスを開発しています。 この記事は何 この記事は、最近聞くようになった「Chain-of-Abstraction (CoA) Reasoning」の論文[1]について、日語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 題 ざっくりサマリー LLMが外部ツールを使って回答を生成するときの、回答精度を高める手法についての論文です。Metaの研究者らによって2024年1月に提案されました。「Chain-of-Abstraction (CoA)」という手法を使うメリットは、RAGに応用することで

    RAGを複雑な質問に強くする手法「CoA」について
    T-norf
    T-norf 2024/04/18
    RAGの性能を上げる手法は、LLM活用のキモになるパターンが多そうで、網羅したいなぁ。なかなかじっくり読む時間が取れない
  • なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog

    CTO 室の恩田です。 今回は GitHub Copilot Enterprise を評価してみて、現時点ではまだ採用しないことを決めた、というお話をご紹介したいと思います。 きっかけ とあるエンジニアSlack で自身の times チャネルに時雨堂さんの GitHub Copilot Enterprise のススメという記事を投稿したことが発端でした。特に感想はなく URL に 👀 だけが添えられていたので、後で見るぐらいのメモだったんだと思います。 それを見かけた別のエンジニア技術雑談チャネルにその投稿を共有して、これは凄そうと話題を向けたところ、CTO の「評価してみる?」の一言で、有志が集って評価プロジェクトが始まりました。 雑談チャネルできっかけとなる投稿が共有されてから、30分足らずの出来事でした(笑)。 この話題が出たのは金曜日でしたが、週明け早々に稟議を終え、火曜

    なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog
    T-norf
    T-norf 2024/04/16
    LLM全般的に、GPTのP、Pretrained/事前学習済み、以外の性能は微妙なのよね。Pretrainedの能力がえげつないので、対比でそう見える面もあるけど
  • ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について

    Zero Waste, Radical Magic, and Italian Graft – Quarkus Efficiency Secrets

    ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について
    T-norf
    T-norf 2024/04/09
    複雑なRAG、いろいろバリエーションあるのね。英語だけど複数実例が載ってて、ちゃんと理解してみたいけど、いくつか複雑なのは飛ばしてしまった
  • 日本語対応でGPT-4よりも高性能な大規模言語モデル「Command R+」が登場したので使ってみた、無料でダウンロードしてローカル動作も可能

    AI開発企業のCohereがGPT-4と同等の性能を備えた大規模言語モデル「Command R+」を発表しました。Command R+は日語での応答にも対応しており、ローカルにダウンロードして実行可能なほか、ウェブ上で実行できるチャットアプリのデモも公開されています。 Introducing Command R+: A Scalable LLM Built for Business https://txt.cohere.com/command-r-plus-microsoft-azure/ CohereForAI/c4ai-command-r-plus · Hugging Face https://huggingface.co/CohereForAI/c4ai-command-r-plus Command R+ https://docs.cohere.com/docs/command-r

    日本語対応でGPT-4よりも高性能な大規模言語モデル「Command R+」が登場したので使ってみた、無料でダウンロードしてローカル動作も可能
    T-norf
    T-norf 2024/04/08
    1040億パラメーターで日本語対応、一部で GPT-4 turbo を上回る性能のCommand R+(Transformer論文の共著者に20歳にして名を連ねたAidan Gomez氏が率いるカナダ Cohere社 のLLM)
  • 3大ビジネスうるおぼえ

    デトロイトトーマツ あと2つは?

    3大ビジネスうるおぼえ
    T-norf
    T-norf 2024/04/04
    アントロピックのクラウド(ちなみに、調べたらアンスロピックとかアンソロピックが間違いでアントロピックが正解。クロウドか「クロード」も悩むし、オーパスか「オープス」かも...。「」がたぶん正解)
  • GitHub、Copilotでより高い精度のコードを生成させる方法を指南。関連ファイルを開く、トップレベルのコメントを書くなど

    GitHub、Copilotでより高い精度のコードを生成させる方法を指南。関連ファイルを開く、トップレベルのコメントを書くなど 記事の中で、プログラマが意図したコードを高い精度で生成AIに生成させるためのテクニックがいくつも紹介されています。これらのテクニックはCopilotに限らず、生成AIを用いてコードを生成させる際の参考になると思われます。 この記事では、紹介されているテクニックのポイントをまとめてみました。 GitHub Copilotでよりよいコードを生成するためのポイント 生成AI活用の基として説明されたのは、大規模言語モデルを用いた生成AIでは、コンテキスト(文脈)に基づいて予測を行うように設計されているため、生成AIに対する入力やプロンプトがコンテキストに富んでいるほど良い出力が得られる、という原則です。 それゆえ、GitHub CopilotおよびGitHub Copi

    GitHub、Copilotでより高い精度のコードを生成させる方法を指南。関連ファイルを開く、トップレベルのコメントを書くなど
    T-norf
    T-norf 2024/03/28
    可読性も上がってあとから読む人(1年以上たってからの自分も)助かって、ハッピーね
  • ChatGPTのライバル「Claude 3」の使い方 良い点、悪い点まとめ (1/5)

    3月4日の公開以来、「Claudeやばくない?」「GPT-4を越えた」と、界隈で話題の「Claude 3」は、OpenAIの元メンバーによって設立されたAIベンチャー「Anthropic」が開発する最新の大規模言語モデル(LLM)だ。今回はChatGPTのライバルClaude 3の有料版を2週間ほどヘビーに使ってみて感じたことを、良い点と悪い点どちらも書いていきたいと思う。 Claude 3とは? 既報の通り、Claude 3はAnthropicが開発する大規模言語モデルの名称だ。 パラメーターのサイズなどが異なる3つのモデルがラインアップされている。 「Claude 3 Opus」は最も知能が高く、複雑なタスクでも最高のパフォーマンスを発揮する強力なモデル。APIやデータベースを介した複雑なアクションの計画や実行、インタラクティブコーディングなどの高度な活用が想定されている。 「Clau

    ChatGPTのライバル「Claude 3」の使い方 良い点、悪い点まとめ (1/5)
    T-norf
    T-norf 2024/03/23
    両方を使い込んでるライターのClaude 3 Opus / GPT-4 比較記事。分かりやすい。いまのとこClaude 3 Opusまで触る余裕がないので助かる
  • 生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」

    生成AIのトップ研究者らが東京で創業したAIベンチャー「Sakana AI」が、生成AI開発の新たな手法を開発したと3月21日に発表した。従来は人間が手動で設計し、多くの計算資源を使っていたが、同社の手法では設計を機械が自動で行い、“ほぼ無視できるレベル”の計算資源で開発が可能になるという。この手法で開発した日語基盤モデルをGitHubで公開した。 同社が提案したのは「進化的モデルマージ」という手法。公開されているさまざまな基盤モデル(生成AIを含む、大規模なデータセットによる事前学習で各種タスクに対応できるモデルのこと)を組み合わせて新たなモデルを作る「マージ」に、進化的アルゴリズムを適用したものだ。 マージ自体は現在の基盤モデル開発で使われている手法で、モデルの“神経回路”(アーキテクチャ)の中に別のモデルの神経回路の一部を組み入れたり、入れ替えたり、神経同士のつながりやすさ(重み)

    生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」
    T-norf
    T-norf 2024/03/21
    複数のNN(=ノード集合)を学習後に「一部ノードは捨て」「ノード集合同士を任意のノードで繋いで」から追加学習とか元々できるのよね。そこをAIで最適化ってのは未来予想ではよく聞くけど、実際に大成功しちゃうか
  • claude3を使ってみたら、ライティングの仕事が無くなるかもしれない瞬間を目の当たりして、衝撃を受けた件|池田 亮平

    claude3を使ってみたら、ライティングの仕事が無くなるかもしれない瞬間を目の当たりして、衝撃を受けた件 ひと言で結論を言うと、昨日はclaude3に衝撃を受けて、興奮して眠れませんでした…。 四の五の言わずにアウトプットを見せちゃいたいんですが、 ●打合せをZoom録画 ↓ ●録音データをCLOVA noteに放り込んでテキスト化 ↓ ●出てきたテキストファイルをノールックでclaude3に添付して、たった4行のプロンプトで指示 CLOVA noteに放り込むところから、トータルの所要時間、長めに見積もっても10分。それで出てきたのがこれです ↓ 【タイトル】 SFプロトタイピングが拓く、KOBIRAの未来 ~物語を通じて、全社で創る10年後のビジョン~ 【文】 先日、「SFプロトタイピング」という新しい手法について、詳しくレクチャーを受ける機会がありました。講師を務めてくださったの

    claude3を使ってみたら、ライティングの仕事が無くなるかもしれない瞬間を目の当たりして、衝撃を受けた件|池田 亮平
    T-norf
    T-norf 2024/03/20
    やべーな。OpenAIがMSと一緒にコーティングやらcopilotをGPTに学習させてる隙に、文章力ではAnthropicに差された感じかな。莫大な資金を燃やしながら、まだまだ競争と進化が続きそうね
  • 人知超すAIは人を操る 「ゴッドファーザー」が語る脅威 - 日本経済新聞

    【この記事のポイント】・人類存続の危機をもたらす恐れがAIにある・自律的に人を殺すロボット兵器が10年以内に登場・大規模言語モデルは脳より効率的に学習できる人工知能AI)が驚異的な速さで進化を続けている。あらゆる分野で人類の知能を上回る時代が訪れたとき、世界はどう変わるのか。「AI研究のゴッドファーザー」として知られるトロント大学のジェフリー・ヒントン名誉教授がカナダにある自宅で取材に応じ、A

    人知超すAIは人を操る 「ゴッドファーザー」が語る脅威 - 日本経済新聞
    T-norf
    T-norf 2024/03/09
    ヒントん博士の発言はインパクトあるの多いよね。「私は50年もの間、AIを人間の脳に近づけようとして開発を重ねてきた。脳の方が機能的に優れていると信じていたからだ。だが23年に考えを改めた」
  • 驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

    昨日話題になった「BitNet」という1ビットで推論するLLMがどうしても試したくなったので早速試してみた。 BitNetというのは、1ビット(-1,0,1の三状態を持つ)まで情報を削ぎ落とすことで高速に推論するというアルゴリズム。だから正確には0か1かではなく、-1か0か1ということ。 この手法の行き着くところは、GPUが不要になり新しいハードウェアが出現する世界であると予言されている。マジかよ。 https://arxiv.org/pdf/2402.17764.pdf ということで早速試してみることにした。 オフィシャルの実装は公開されていないが、そもそも1ビット(と言っていいのかわからない,-1,0,1の三状態を持つからだ。 論文著者はlog2(3)で1.58ビットという主張をしている)量子化のアルゴリズム自体の研究の歴史は古いので、BitNetによるTransformerの野良実装

    驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z
    T-norf
    T-norf 2024/02/29
    transformerのattention機構のとこだけがパラメータ1.58bitになってるのかな。論文読む余力なしだし、自分で触るつもりないけど、LLMのビジネスインパクトが巨大なので、そこに大きな影響与えるかもな技術で気になる
  • GPTが人知れず既存の名刺管理アプリを抹殺していた話 - Qiita

    抹殺は言い過ぎかもしれませんが簡易な名刺管理アプリであれば自作で十分という時代がきていたようです これで紙の名刺からはきっとバイバイできるでしょう! 名刺管理アプリ作ってほしいといわれた それは2/22のお話。 ことの発端は別の部署からかかってきた一の電話でした。 新規事業の部署でいろいろな取引先様と付き合いがあるものの、紙の名刺が非常に多く管理に困っているとのことのことです。 私は小売業に勤務しているしがない一社員で、現在Eコマースの戦略立案に関する部署に所属しています。 電話先の方は、以前一緒の部署で勤務したことがある方です。現在新規事業のプロジェクト推進をしており、冒頭のような課題感を持っているため既存の名刺管理アプリ導入を考えたのですが、あまりのお値段の高さに卒倒して私に藁をもすがる思いで連絡されたようです。 これまでのアプリは名刺の識別専門のAI()を使っていた 話を聞いてみた

    GPTが人知れず既存の名刺管理アプリを抹殺していた話 - Qiita
    T-norf
    T-norf 2024/02/28
    入力値を整えたり分類するパターンでの応用例。珍しいと思う
  • 最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk

    今回は、最新の Google Gemma モデルを Apple Silicon に最適化されたライブラリ MLX を使ってローカルで実行したり、ファインチューニングしてみましたのでその手順を紹介します。 MLX 関連の情報はドキュメンテーションが分かりづらいものも多かったので色々試した経緯も共有しながら少しでも何かの参考になれば幸いです。 実際に使った Jupyter Notebook を Gist にアップロードしていますので、そちらも参考にしてください。 →Google Gemma モデルを MLX を使ってローカルでファインチューニング 事前準備必要なライブラリをインストールします。 また Apple Silicon 搭載の Mac が必要です。今回は M3 Max 128GB 搭載の MacBook Pro で実行しました。 !pip install -U mlx mlx_lm t

    最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk
    T-norf
    T-norf 2024/02/26
    おお、NVIDIA GPUじゃなくてと思ったけど「M3 Max 128GB」って調べたら、「14インチMacBook Pro 16コアCPU、40コアGPU 16コアNeural Engine」に「128GBユニファイドメモリ」で748,800円(税込)なり。もちょっと普通のApple Silicon機だとどうだろ
  • Memory and new controls for ChatGPT

    We’re testing the ability for ChatGPT to remember things you discuss to make future chats more helpful. You’re in control of ChatGPT’s memory. We’re testing memory with ChatGPT. Remembering things you discuss across all chats saves you from having to repeat information and makes future conversations more helpful. You’re in control of ChatGPT’s memory. You can explicitly tell it to remember somethi

    Memory and new controls for ChatGPT
    T-norf
    T-norf 2024/02/14
    これはRAGの一種(メモリの記録と抽出=Retrievalをするfunction calling?)なのか、プロンプトとして毎回全部食わせてるのか、特殊な入力値として持つのか、何なんだろうね。多分記載ないよね。
  • RAGの性能を改善するための8つの戦略 | Fintan

    近年、OpenAIのGPT-4やGoogleのGemini、MetaのLLaMAをはじめとする大規模言語モデル(Large Language Model:LLM)の能力が大幅に向上し、自然言語処理において優れた結果を収めています[1][2][3]。これらのLLMは、膨大な量のテキストデータで学習されており、さまざまな自然言語処理タスクにおいて、タスクに固有なデータを用いてモデルをファインチューニングすることなく、より正確で自然なテキスト生成や、複雑な質問への回答が可能となっています。 LLM-jp-eval[4]およびMT-bench-jp[5]を用いた日語LLMの評価結果。Nejumi LLMリーダーボード Neoより取得。 大規模言語モデルは近年急速な進歩を遂げていますが、これらの進歩にもかかわらず、裏付けのない情報や矛盾した内容を生成する点においては依然として課題があります。たとえ

    RAGの性能を改善するための8つの戦略 | Fintan
    T-norf
    T-norf 2024/02/09
    RAGガチ勢。チャンクとセットでプロンプトの工夫も結構いる気もする。
  • グーグルBard、「Gemini」に生まれ変わる 最上位AIモデルは月2900円

    グーグルBard、「Gemini」に生まれ変わる 最上位AIモデルは月2900円
    T-norf
    T-norf 2024/02/09
    GPT-4同等で「Gemini in Gmail (available soon)」は結構気になるな。登録したプロンプトで「必要そうな返信下書き」「今日のタスクのサマリ」「昨日のこれ返答せんでええの?」「以下はごみ箱入れときました」やってくれる?
  • グーグルの新AIモデル「Gemini Pro」、プレビュー提供開始

    グーグルの新AIモデル「Gemini Pro」、プレビュー提供開始
    T-norf
    T-norf 2023/12/14
    ほとんどの新LLMは無視してOpenAIだけ追っかけてきたけど、こいつは別格。仮に日本語1文字が1charカウント(多分違うよね)だと、GPT-4より性能高いという評価もある上に、入力側のAPIコストは 約1/36 と激安よ
  • 【GPT-4V APIのおすすめ活用事例】OpenAIの最新モデルを使ったヤバい使い方10選 | WEEL

    みなさん、API経由でGPT-4Vが使えるようになったのはご存知ですか? その名も「GPT-4V API」というモデル名なのですが、GitHubでスター10,000超えのAIツール・tldrawに採用されています。 このGPT-4V APIは、アプリ・サービスに目を与えてくれるすぐれものなんです! 当記事では、そんなGPT-4V APIの活用事例のうち、SNSでバズったものだけを10個ピックアップしました。 最後まで読んでいただくと、APIで作れるアプリ・サービスのレパートリーが増えるかもしれません。ぜひ最後までお読みくださいね! なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽にご相談ください。 →無料相談で話を聞いてみる GPT-4V APIとは?概要を紹介 「GPT-4V API」はChatGPT APIのなかで唯一、画像入力に対応しているモデルです

    【GPT-4V APIのおすすめ活用事例】OpenAIの最新モデルを使ったヤバい使い方10選 | WEEL
    T-norf
    T-norf 2023/12/05
    いまのところ画面設計(ワイヤーフレーム)からモック(静的HTMLコード生成)が圧倒的に実用的よね。この用途なら、APIからの利用じゃなくてChatGPT Plusでもいいんだけど。
  • ChatGPT対抗の本命「Claude 2」ついに日本でも利用可能に

    Anthropicは10月16日(現地時間)、同社が公開するAIチャットボット「Claude 2」の公開範囲を日を含む世界95の国と地域に拡大したことを明らかにした。 リストにEU加盟国なし We’re rolling out access to https://t.co/RxKnLNNcNR to more people around the world. Starting today, users in 95 countries can talk to Claude and get help with their professional or day-to-day tasks. You can find the list of supported countries here: https://t.co/PbMuaqJcjU — Anthropic (@AnthropicAI) O

    ChatGPT対抗の本命「Claude 2」ついに日本でも利用可能に
    T-norf
    T-norf 2023/10/19
    ひとまず対話は、bardやGPT-3.5よりは優秀な感じがするし、なんとなく言葉遣いはGPTの一族の者で、ちょっと硬めの人っていう印象がする。コーティング能力とか含めて、もっと試してみたい