並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 50件

新着順 人気順

mlの検索結果1 - 40 件 / 50件

  • 最近ローカルLLMがアツいらしい

    最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAIの本命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIがAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

    • AIいらすとや

      無制限AIいらすとや 「いらすとや」風の画像を生成できる「AIいらすとや」が無制限で利用ができます。 無制限ダウンロード 「AIいらすとや」含む「AI素材」内にある多種多様な素材を追加費用を払うことなく、すべてのサイズで無制限でダウンロードができます。

        AIいらすとや
      • エンジニア・データ分析職の方々にお薦めしたい、LLM時代に不可欠な教養が身に付くテキスト3選 - 渋谷駅前で働くデータサイエンティストのブログ

        (『IT Text 自然語処理の基礎』より) 3ヶ月ほど前に空前のLLMブームについて概観する記事を書きましたが、それ以降も世間のLLMに対する狂騒ぶりは収まるどころかますます拍車がかかるという有様で、あまつさえ僕自身の仕事における日常業務にもじわじわと影響が及びつつあり、今後も良きにつけ悪しきにつけLLMと共生し続ける必要がありそうだと感じている今日この頃です。 そんな猫も杓子もLLMに群がるが如き空前のブームを受けて、エンジニアやデータ分析職の方々の中には「LLMに興味はあるんだけど世の中にあまりにも多くのLLM関連コンテンツが溢れ返っていて何から手をつけたら良いのか分からない」という向きもあるように見受けられます。そこで、僕も断じてLLM以下生成AIの専門家などではないのですが、個人的に「このテキストを読めばLLM時代を生き抜くことが出来そうだ」と感じた書籍を、全くの独断と偏見で3冊

          エンジニア・データ分析職の方々にお薦めしたい、LLM時代に不可欠な教養が身に付くテキスト3選 - 渋谷駅前で働くデータサイエンティストのブログ
        • 中学生でもわかる深層学習

          第1章 理論編 ・深層学習とは (p.13-) ・ニューラルネットワークとは (p.31-) ・どうやって学習するか: 勾配降下法 (p.57-) ・深層学習の注意点 (p.91-) 第2章 応用編 ・分類問題 (p.110-) ・画像認識 (p.120-) ・音声認識/自然言語処理 (p.151-) ・講演のまとめ (p.167-)

            中学生でもわかる深層学習
          • 驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

            昨日話題になった「BitNet」という1ビットで推論するLLMがどうしても試したくなったので早速試してみた。 BitNetというのは、1ビット(-1,0,1の三状態を持つ)まで情報を削ぎ落とすことで高速に推論するというアルゴリズム。だから正確には0か1かではなく、-1か0か1ということ。 この手法の行き着くところは、GPUが不要になり新しいハードウェアが出現する世界であると予言されている。マジかよ。 https://arxiv.org/pdf/2402.17764.pdf ということで早速試してみることにした。 オフィシャルの実装は公開されていないが、そもそも1ビット(と言っていいのかわからない,-1,0,1の三状態を持つからだ。 論文著者はlog2(3)で1.58ビットという主張をしている)量子化のアルゴリズム自体の研究の歴史は古いので、BitNetによるTransformerの野良実装

              驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z
            • 2023年版データ分析の100冊 - Qiita

              【データ分析の必読10冊+差をつける10冊+100冊超】データサイエンス、データ分析、機械学習関連の本がご好評いただいてましたが古くなりごちゃごちゃしているので新たに作り直しました 本記事のめあて IT系の技術者の方がデータ分析関連の仕事をするために役立つ本を紹介する(私が学び始めた時にあれば欣喜雀躍したであろう)記事として書いております。 本記事作者の青木はバイオインフォマティクス(ゲノムデータのDB化中心・Perl・MySQL)からRで時系列分析→Pythonでデータ分析一般と業務をしてまいりました。 ですので研究者目的の本はありません。また、データ分析の基礎は主にRで学んだのですが、昨今の流行に合わせてPython本を中心に、Rの本は参考程度にしています(本記事のR版のご要望があれば爆裂書きます!) こういうリストをあげる奴は大抵読んでいない、と過去にも言われたのですが、ほとんど読ん

                2023年版データ分析の100冊 - Qiita
              • 何でも微分する

                IBIS 2023 企画セッション『最適輸送』 https://ibisml.org/ibis2023/os/#os3 で発表した内容です。 講演概要: 最適輸送が機械学習コミュニティーで人気を博している要因として、最適輸送には微分可能な変種が存在することが挙げられる。微分可能な最適輸送は様々な機械学習モデルに構成要素として簡単に組み入れることができる点が便利である。本講演では、最適輸送の微分可能な変種とその求め方であるシンクホーンアルゴリズムを紹介する。また、この考え方を応用し、ソーティングなどの操作や他の最適化問題を微分可能にする方法を紹介するとともに、これらの微分可能な操作が機械学習においてどのように役立つかを議論する。 シンクホーンアルゴリズムのソースコード:https://colab.research.google.com/drive/1RrQhsS52B-Q8ZvBeo57vK

                  何でも微分する
                • 225行のコードでGPTの仕組みを理解する

                  概要 LLMに関心があり、ChatGPTやtransformerの仕組みを理解したいと思っていたところ、雰囲気を掴むのにこちらの動画がとても参考になりました。 動画の内容としては、以下のコーパスを学習して、直前の数文字から次の1文字(単語ではないことに注意)予測機を作成するというものです。 この動画で完成するコードは以下で、225行しかなくとても読みやすいです。 また短いですがtransformerのエッセンスが詰まっていて勉強になりそうです。 このコードを読み解くことでGPTやtransformerがどのように動いているのか、ざっくり理解してみようと思います。 ちなみに完成するとこんな感じの文字列が生成されます。ぱっと見文章っぽいですね。 first Scitizen: He's enough; but he cannot give his friends. MARCIUS: Do yo

                    225行のコードでGPTの仕組みを理解する
                  • 生成 AI による検索体験 (SGE) のご紹介

                    Google は、20 年以上前に日本で Google 検索の提供を開始しました。それ以来、常により良い体験となるよう機能をアップデートしてきました。AI と機械学習の進歩により、Google の検索システムはこれまで以上に人間の言語を理解することができるようになりました。そして本日より、国内で Google 検索の新機能として生成 AI による検索体験 (SGE -Search Generative Experience) の日本語版の試験運用を開始します。 Search Labs に Google アカウントを登録することで、デスクトップの Chrome ブラウザと スマートフォンの Google アプリ( Android および iOS )でご利用いただけます。 生成 AI による検索の進化生成 AI の新たな技術進歩により、検索エンジンの更なる可能性を再考することができ、新しいタイ

                      生成 AI による検索体験 (SGE) のご紹介
                    • 慶應義塾大学 機械学習基礎02 コーディング

                      More Decks by Semantic Machine Intelligence Lab., Keio Univ.

                        慶應義塾大学 機械学習基礎02 コーディング
                      • Dockerで構築する機械学習環境【2024年版】

                        Dockerを使った機械学習環境の構築方法 株式会社松尾研究所で働いているからあげ(@karaage0703)です。松尾研究所では、機械学習(ここでは、予測モデル、画像認識からLLMまで幅広く扱います)を使う多数のプロジェクトが走っています。プロジェクトの特性は多種多様なので、環境構築方法は様々なのですが、松尾研究所では、環境構築方法の1つとしてDockerを推奨していています。今回はDockerを使った機械学習環境の構築方法を紹介します。 松尾研究所の特にインターン生を想定した記事にはなりますが、他の組織、個人の方にも参考になる部分があるかと思いWebに広く公開させていただきます。 なぜDockerで機械学習環境を構築するのか? 具体的な手法に入る前に、まずはDockerで機械学習環境を構築する理由から説明したいと思います。説明が不要な方はここはスキップしてもOKです。 そのために、Do

                          Dockerで構築する機械学習環境【2024年版】
                        • プロジェクト管理はNotionしか勝たん!MLチームのスプリント管理を改善した話 - LayerX エンジニアブログ

                          こんにちは、バクラク事業部のMLチームでソフトウェアエンジニアをしているTomoakiです。 今回はMLチームのスプリント管理におけるタスク・プロジェクト管理にNotionの新概念であるProjectを導入してみたら嬉しいことがたくさんあったので、それらを紹介したいと思います。 イントロダクション Notionの2.30リリースでプロジェクトという概念が登場し、プロジェクトの管理のテンプレートが公開されるなど大きなアップデートがありました。 www.notion.so 本記事でも紹介しますが、このリリースで紹介されているテンプレートが優秀すぎるので、まだみてない方は是非見てみてください。 MLチームでは5月末ごろから、ちょうどスプリント管理に課題感を感じており、早速NotionのProjectを取り入れて6月中に運用してみましたかなり良かったので、本記事では我々目線でのその効果を紹介したい

                            プロジェクト管理はNotionしか勝たん!MLチームのスプリント管理を改善した話 - LayerX エンジニアブログ
                          • 機械学習による株価予測 - Qiita

                            こんにちは。私がAidemyでデータ分析講座コースを受講いたしました。今回は学んだスキルを活用して、上場企業を株価予測をしてみました。 ※私の環境: Python3 Chrome Google Colaboratory Windows 10 目次 1.目的 2. データセット 3. 機械学習モデル 4. 予測モデルの構築と検証 5. 結果 6. 反省 1.目的 上場会社の株価データセットを用いて、株価予測するLSTMの機械学習モデルを構築すること。 2.データセット Yahoo Financeである上場企業Lasertec(6920.T)の時列データ 3.機械学習モデル LSTM(Long Short-Term Memory: ニューラルネットワークの一種で、長期的な依存関係を学習することができる特徴ある。 4.予測モデルの構築と検証 4-1. ライブラリのインポート import ker

                              機械学習による株価予測 - Qiita
                            • SQLiteでベクトル検索ができる拡張sqlite-vssを試す|mah_lab / 西見 公宏

                              SQLiteでベクトル検索を可能にするsqlite-vssそんなポータブルで便利なSQLiteですが、そのSQLiteでベクトル検索ができるとなるとより夢が広がります。 SQLite自体はファイルベースなので、あらかじめベクトルデータを設定したSQLiteデータベースファイルをアプリに組み込んで配布しても良いわけです。そうすればデータベースサーバを用意しなくて済む分コストも圧縮されますし、組み込みなのでアプリからは軽量に動作します。 ホスティングする場合でもFly.ioのようにボリュームイメージを利用できるPaaSを利用すれば、問題なく運用が可能です。 前置きが長くなりましたが、このような夢を叶えてくれる拡張がsqlite-vssです。ベクトル検索はFaissベースで実装されています。 とっても良さげではあるのですが、実際に組み込んでみた場合のコード例が見つからなかったので、手を動かして試

                                SQLiteでベクトル検索ができる拡張sqlite-vssを試す|mah_lab / 西見 公宏
                              • 大規模モデルを支える分散並列学習のしくみ Part1

                                はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 自然言語処理分野における大規模深層学習の重要性は日に日に高まっていますが、GPT-3, GPT-4 などのモデルの学習には膨大な計算コストがかかり、容易に学習できなくなっています。実際、モデルサイズが近年急速に大きくなっていることにより、学習に必要な計算量(FLOPs)は以下のように年々膨大になっています。近年の大規模モデルでは、NVIDIA H100 80GB であっても 1 つの GPU では、モデルをのせることすらできません。 Compute Trends Across Three Eras of Machine Learning より またScaling Laws によると、大規模なモデルは小さいモデルと比較してより優れた性能を発揮するため、自動

                                  大規模モデルを支える分散並列学習のしくみ Part1
                                • 生成系AIの実応用に向けて

                                  LINE株式会社 Data Scienceセンター AI Dev室 室長 井尻善久 ※画像センシング展2023 イメージセンシングセミナー:特別招待講演<ジェネレーティブAI・応用課題> での発表資料です https://www.adcom-media.co.jp/seminar/2023SS/session/I-371.html

                                    生成系AIの実応用に向けて
                                  • 「Kaggleで勝つデータ分析の技術」から見る実用的な機械学習の知見

                                    はじめに 機械学習に関する実用的な知見を知るために、「Kaggleで勝つデータ分析の技術」を読んだので、Kaggle以外の場面でも活用できる話題をまとめてみた。本書は機械学習の基本的な内容も含んでいるが、この記事では機会学習に関する一通りの知識を持ち、実問題に利用している読者を想定してまとめた。従って、勾配ブースティング木の仕組みや、回帰タスクの評価方法等、基本的な内容については解説しない。本記事では、評価の落とし穴や、モデルを改善するための特徴量の工夫、チューニングのTipsについて紹介する。 特徴量 Tips 1: 欠損値の扱い データにはしばしば欠損値が含まれている。欠損値は、そもそも値が存在していない場合の他に、ユーザが意図して入力していない場合や、観測器のエラーによって取得できていない場合等、様々な理由によって生じる。欠損がランダムに発生していない限り、欠損しているという事実が何

                                      「Kaggleで勝つデータ分析の技術」から見る実用的な機械学習の知見
                                    • 「機械学習〜推薦システムを題材に〜」講義資料(生成AIの話題も含む)|masa_kazama

                                      2023年に東京都立大学で非常勤講師として、学部3年生向けに「機械学習〜推薦システムを題材に〜」というテーマで講義をしました。 90分×3コマ×2日間の計6コマの集中講義で、Streamlitで映画のレコメンドアプリを実際に作ってみるなどの演習も含めたものです。 昨年、大学院生向けに同様の講義を3コマ分していたので、それを拡張する形で、最近話題の生成AIの話も1コマ分用意しました。(昨年の授業資料はこちらにあります。) 推薦システムや生成AI×推薦システムについて興味ある方のご参考になりましたら。 1日目(90分×3コマ) 推薦システムの概要 推薦システム-各推薦アルゴリズム 推薦システムの周辺技術(評価指標について)

                                        「機械学習〜推薦システムを題材に〜」講義資料(生成AIの話題も含む)|masa_kazama
                                      • 協調フィルタリングとベクトル検索エンジンを利用した商品推薦精度改善の試み | メルカリエンジニアリング

                                        こんにちは、メルカリのレコメンドチームで ML Engineer をしている ML_Bear です。 以前の記事 [1] では、item2vecと商品メタデータを用いた、メルカリのホーム画面のレコメンド改善のお話をさせていただきました。今回は商品詳細画面でレコメンド改善を行ったお話をさせていただきます。商品詳細画面の例は図1の通りです。ユーザーはアイテムの詳細な説明を見たいときにこの画面に来訪するため、同様の商品を推薦する自然な接点として非常に重要です。 まず、私たちが商品詳細画面で行った改善の概要を示します。各部の詳細については次節以降で詳しく触れます。 日本有数の大規模ECサービスにおいてベクトル検索ベースの商品推薦アルゴリズムを実装し、推薦精度の大幅な改善を実現しました。 協調フィルタリングとニューラルネットワーク (以下、NN) を利用した商品推薦アルゴリズムを構築し、コールドスタ

                                          協調フィルタリングとベクトル検索エンジンを利用した商品推薦精度改善の試み | メルカリエンジニアリング
                                        • 2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」

                                          オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

                                            2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」
                                          • グラフニューラルネットワーク(GNN)徹底解説!用途と仕組みからPyGでの実装まで

                                            株式会社ディー・エヌ・エーに AI スペシャリストとして新卒で入社した @634kami です。 CNNなどディープなニューラルネットワークの台頭により一躍世界中の関心を集めるようになった機械学習分野ですが、最近の生成AIブームによりますます関心が高まっています。機械学習については、画像や自然言語といった馴染み深いデータを対象に扱うものについてはよく知られていますが、グラフと呼ばれるデータを扱うグラフニューラルネットワーク(GNN) については研究における注目度の割に、世間からの知名度がありません。 この記事では、グラフについて知らない方でも分かるように、最初にGNNが何に使えるのかの話を中心に解説した後、実際の仕組みを知りたい方向けにモデルの紹介や様々なトピックについて網羅的に解説します!また、最後に PyTorch Geometric(PyG) を利用した実装方法についても触れます。

                                              グラフニューラルネットワーク(GNN)徹底解説!用途と仕組みからPyGでの実装まで
                                            • コンペで使える!?LightGBMで実装する3つの弱教師あり学習 - ABEJA Tech Blog

                                              ABEJAでデータサイエンティストをしている小林です。 今回は、もしかしたらいつか業務や機械学習コンペに役立つかもしれない情報、LightGBMで弱教師あり学習を行う方法についてお話します。 コードはこちらで公開しております。 目次 はじめに 弱教師あり学習の例(マルチインスタンス学習) LightGBMで弱教師あり学習がしたい! PU分類 問題設定 解き方 LightGBMの実装 実験 Partial Label Learning 問題設定 解き方 LightGBMの実装 実験 マルチインスタンス学習 問題設定 解き方 LightGBMの実装 実験 おわりに はじめに 機械学習を行うためには、一般的に、大量の入力データと、それら一つ一つに対応した正確なラベルが必要です。 例えば、犬と猫の画像分類を行う場合には、それぞれの画像一つ一つに犬か猫のラベルがついていてほしいですね。 一方で場合に

                                                コンペで使える!?LightGBMで実装する3つの弱教師あり学習 - ABEJA Tech Blog
                                              • Document AIを巡る技術とLayerXにおける可能性 - LayerX エンジニアブログ

                                                初めまして。機械学習エンジニアの島越@nt_4o54です。現在はMLチームで日々、バクラクシリーズで用いられているAI-OCR機能の改善や新規機能の開発などを行なっています。 7月はLayerXエンジニアブログを活発にしよう月間ということで、自分からは表題にもある通り、「Document AI」と呼ばれる技術についての紹介と、またLayerXにおいてどういう応用先があるのかというお話をさせていただこうと思います。 ※ 同名のDocument AIというGCPのサービスがありますが、今回は一般的なDocument AIの話になります。 Document AIとは Document AIに用いられる技術 Optical Character Recognition (OCR) Document Classification Layout Analysis Document Parsing Tab

                                                  Document AIを巡る技術とLayerXにおける可能性 - LayerX エンジニアブログ
                                                • ロジスティック回帰の最尤推定量にはバイアスがある - ほくそ笑む

                                                  ロジスティック回帰について調べている。 ロジスティック回帰モデルのパラメータの最尤推定量は、不偏推定量ではなく、バイアスがある。 例として、サンプルサイズ 、入力変数の数 のときを考える。 パラメータ 300個の真の値を、最初の 100個は 、次の 100個は 、残りの 100個は に設定して推定してみよう。 n <- 1500 p <- 300 # データの生成 set.seed(314) x <- rnorm(n * p, mean = 0, sd = sqrt(1/n)) X <- matrix(x, nrow = n, ncol = p) beta <- matrix(c(rep(10, p/3), rep(-10, p/3), rep(0, p/3))) logistic <- function(t) 1 / (1 + exp(-t)) prob <- logistic(X %*

                                                    ロジスティック回帰の最尤推定量にはバイアスがある - ほくそ笑む
                                                  • 日本語LLMにおけるトークナイザーの重要性 | データアナリティクスラボ

                                                    ELYZA-Japanese-Llama-2-7b ELYZA-Japanese-Llama-2-7bは、ELYZAが公開した日本語に特化したLLMです。 公開されたのは以下のモデルです。 ELYZA-japanese-Llama-2-7bELYZA-japanese-Llama-2-7b-fastELYZA-japanese-Llama-2-7b-instructELYZA-japanese-Llama-2-7b-fast-instruct instruct:instruction tuningによって追加学習されたモデル。 fast:日本語の語彙の追加によって処理を高速化したモデル。 モデルの概要 ELYZA-japanese-Llama-2-7bはLlama2をベースとして日本語処理の性能を向上させるために追加学習したモデルです。英語で学習済みのLLMの言語能力を引き継ぐことで、少な

                                                      日本語LLMにおけるトークナイザーの重要性 | データアナリティクスラボ
                                                    • Train, Test, and Validation Sets

                                                      Train, Test, and Validation Sets By Jared Wilber In most supervised machine learning tasks, best practice recommends to split your data into three independent sets: a training set, a testing set, and a validation set. To demo the reasons for splitting data in this manner, we will pretend that we have a dataset made of pets of the following two types: Cats:      Dogs: For each pet in the dataset we

                                                        Train, Test, and Validation Sets
                                                      • 日本語CLIP 学習済みモデルと評価用データセットの公開

                                                        はじめに 基盤モデル がAIの新潮流となりました。基盤モデルというとやはり大規模言語モデルが人気ですが、リクルートでは、画像を扱えるモデルの開発にも注力しています。画像を扱える基盤モデルの中でも代表的なモデルのCLIPは実務や研究のさまざまな場面で利用されています。CLIPの中には日本語に対応したものも既に公開されていますが、その性能には向上の余地がある可能性があると私たちは考え、仮説検証を行ってきました。今回はその検証の過程で作成したモデルと評価用データセットの公開をしたいと思います。 公開はHugging Face上で行っていますが、それに合わせて本記事では公開されるモデルやデータセットの詳細や、公開用モデルの学習の工夫などについて紹介します。 本記事の前半では、今回公開するモデルの性能や評価用データセットの内訳、学習の設定について紹介します。記事の後半では大規模な学習を効率的に実施す

                                                          日本語CLIP 学習済みモデルと評価用データセットの公開
                                                        • スモールデータを用いたデータ解析・機械学習のアプローチのまとめ

                                                          分子設計・材料設計・プロセス設計・プロセス管理において、分子記述子・実験条件・合成条件・製造条件・評価条件・プロセス条件・プロセス変数などの特徴量 x と分子・材料の物性・活性・特性や製品の品質などの目的変数 y との間で数理モデル y = f(x) を構築し、構築したモデルに x の値を入力して y の値を予測したり、y が目標値となる x の値を設計したりします。 スモールデータ、すなわちサンプル数が小さいデータセットにおいては、データ解析・機械学習を慎重に行う必要があります。スモールデータにおける問題の詳細は、こちらに書いた通りです。 小さなデータセットが抱える大きな問題サンプル数が小さいデータセットには、データ解析で回帰分析やクラス分類をするとき、とてつもなく大きな問題があります。回帰分析やクラス分類における問題というと、精度の高いモデルが構築できないことを想像するかもしれません。

                                                          • アマゾン、AI講座を無料で提供する「AI Ready」開始--奨学金制度も

                                                            Amazonは生成型の人工知能(AI)関連のキャリアを構築したいと考えている人々に向け、無料の訓練コースと奨学金制度を提供する。同社は米国時間11月20日、従業員や学生などがAIや生成AIについて学べるよう支援するための取り組み「AI Ready」を発表した。 AI Readyは、以下のものから構成されている。 AIおよび生成型AIに関する8つの新たな無料コース 世界各地の5万人を超える高校生および大学生がUdacityの新たな生成型AIコースを受講できるようにする奨学金制度「AWS Generative AI Scholarship」 Code.orgとのコラボレーションによる、生成型AIに関する学生向けの訓練 無料コースについては、開発者および技術者の作業として需要が高い分野を網羅するコースとともに、業務リーダーや非技術系プロフェッショナル向けのコースが合わせて8つ、新たに開講される。

                                                              アマゾン、AI講座を無料で提供する「AI Ready」開始--奨学金制度も
                                                            • Ollama

                                                              Get up and running with large language models. Run Llama 2, Code Llama, and other models. Customize and create your own.

                                                                Ollama
                                                              • 推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった | AIDB

                                                                推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった 2023/8/30 LLM 論文 AIDB Research 推論能力をさらに強化するための新しい戦略『AoT(Algorithm of Thoughts)』が登場しました。この手法によって、大規模言語モデル(LLM)が「直感」に似た能力を示すようになったとの実験結果が報告されています。この発表は、マイクロソフトの研究者をはじめとする専門家によって行われました。 この研究は、推論タスクにおけるLLMの新たな可能性を広げるものであり、計算負荷の高さや効率の低さといった従来の課題を解決する方向性を示しています。 参照論文情報 タイトル:Algorithm of Thoughts: Enhancing Exploration of Ideas in Large Language Models 著者:Bilgeh

                                                                  推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった | AIDB
                                                                • 大規模言語モデル時代のHuman-in-the-Loop機械学習

                                                                  画像の認識・理解シンポジウム(MIRU2023)チュートリアル

                                                                    大規模言語モデル時代のHuman-in-the-Loop機械学習
                                                                  • GitHub - inlinedio/ikv-store: High-performance key-value store for ML inference. 100x faster than Redis.

                                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                      GitHub - inlinedio/ikv-store: High-performance key-value store for ML inference. 100x faster than Redis.
                                                                    • Evidently AI - ML system design: 300 case studies

                                                                      How do companies like Netflix, Airbnb, and Doordash apply machine learning to improve their products and processes? We put together a database of 300 case studies from 80+ companies that share practical ML use cases and learnings from designing ML systems. Navigation tips. You can play around with the database by filtering case studies by industry or ML use case. We added tags based on recurring t

                                                                        Evidently AI - ML system design: 300 case studies
                                                                      • Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装

                                                                        はじめに 株式会社スマートショッピングで SRE をしているbiosugar0です。 先日、2023 年 10 月 23 日に行われた Amazon Bedrock Prototyping Camp というイベントに参加してきました。 そこでは Bedrock の紹介から始まり、Claude のハンズオン、実際にプロダクト反映を目指したプロトタイピングを行うという内容でした。 今回はその中で検証、実装した社内用の Slack bot に弊社ヘルプページを参照させる事例を紹介します。 Retrieval Augmented Generation (RAG) Retrieval Augmented Generation (RAG)は、LLM を用いた処理において、外部のデータベースや文書と連携してより精度の高い回答を生成するためのテクニックです。 GPT-4 のような LLM は、学習に使用さ

                                                                          Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装
                                                                        • Weekly AI News 始めました - クラスタリングとGPTを使った、まとめ自動生成 - A Day in the Life

                                                                          AI関連の話題が引き続き多い昨今、今週どんなことが話題になったのだろう?ぐらいの頻度で知れると結構便利なんじゃないかなーと、毎週配信するメルマガ(substack)を始めました。内容は全自動で作成しています。例えば、2023年7月28日から遡って約一週間分のAIニュースまとめは以下の感じです。 https://ainewsdev.substack.com/p/weekly-ai-news-1 完璧とまでは言わないまでも、そこそこ話題になったものをいい感じで集められているのではないでしょうか。興味がある方はご登録 or フィードリーダーなどで購読ください。 なお、メルマガタイトルは Weekly Kaggle News のリスペクトです。 と、広報だけではあれなので、内部の実装の話でも。以前リンクを張った資料と、とりわけ大きく変えているわけでは無いのですが、ざっくりと書くと multilin

                                                                          • 線形回帰において「多重共線性があると推定が不安定になる」とは?〜図と理論で理解する〜

                                                                            これをもとに再度計算し直すと、(\hat{\beta}_0, \hat{\beta}_1, \hat{\beta}_2) = (2.07, 0.576, -3.91\times 10^{-3})、今度は \hat{\beta}_1=0.567 であり家賃が月収増加額に対して57.6%上昇するという随分大きな値が出てしまった。 このように、入力データが少し変わっただけで、線形回帰係数の推定値が大きく変化してしまう。 この原因は、説明変数として円単位の月収 X_1 とほぼ同じ意味を持ち相関も強い X_2、つまりドル単位の月収も含まれていることにある。 なお、もし X_1 だけ用いて予測を行っていれば、いずれの家賃データを入力として用いても回帰係数 \hat{\beta}_1 の推定値はおおよそ 0.30、つまり「月収が10,000円高ければ家賃がその約30%の3,000円程度高いところに住む傾

                                                                              線形回帰において「多重共線性があると推定が不安定になる」とは?〜図と理論で理解する〜
                                                                            • 人工知能学会2023ランチョンセミナー「アンサンブル学習における基礎理論の構築」

                                                                              https://www.ai-gakkai.or.jp/jsai2023/wp-content/uploads/sites/20/2023/05/AC37067_LUNCHEON_PDF.pdf https://twitter.com/MorishTr/status/1664942416795930624

                                                                                人工知能学会2023ランチョンセミナー「アンサンブル学習における基礎理論の構築」
                                                                              • ニューラルネットワークのすゝめ - Qiita

                                                                                はじめに こんにちは! 僕は研究を行いながら、長期インターンでデータサイエンティストとして働く大学院生です! 学部時代から長期インターンを始め、現在まで4社経験してきました。 この経験から、プログラミングの学習を始めたばかりの人や、長期インターンを行う勇気が出ない人に、学習サポートやデータ分析の実績作り支援、さらにはKaggle人材マッチングサービスなどを行わせてもらっています! 僕自身、プログラミングの習得や長期インターン探しに苦労したので、その経験をお伝えすることで、より多くの人が挫折せずデータサイエンティストになるまで成長して欲しいです! 以下でサポートを行なっているのでご興味ある方はご連絡ください!学生・社会人問わず専攻も問わずサポートいたします! X(Twitter) これまで機械学習アルゴリズムやデータサイエンティストに内定するまでに行ったこと、統計学実践ワークブックの解説など

                                                                                  ニューラルネットワークのすゝめ - Qiita
                                                                                • Applied Causal Inference Powered by ML and AI

                                                                                  An introduction to the emerging fusion of machine learning and causal inference. The book presents ideas from classical structural equation models (SEMs) and their modern AI equivalent, directed acyclical graphs (DAGs) and structural causal models (SCMs), and covers Double/Debiased Machine Learning methods to do inference in such models using modern predictive tools.