並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 12 件 / 12件

新着順 人気順

変分ベイズの検索結果1 - 12 件 / 12件

  • 【徹底解説】変分ベイズをはじめからていねいに | Academaid

    初学者の分かりやすさを優先するため,多少正確でない表現が混在することがあります。もし致命的な間違いがあればご指摘いただけると助かります。 はじめに 機械学習を勉強したことのある方であれば,変分ベイズ(VB:variational bayes)の難しさには辟易したことがあるでしょう。私自身,学部生時代に意気揚々と機械学習のバイブルと言われている「パターン認識と機械学習(通称PRML)」を手に取って中身をペラペラめくってみたのですが,あまりの難しさから途方に暮れてしまったことを覚えています。 機械学習の登竜門は,変分ベイズ(変分推論)だと私は考えています。また,VAE(変分オートエンコーダ;variational autoencoder)に代表されるように,変分ベイズは最近の深層学習ブームにおいて理論面の立役者となっている側面もあります。一方で,多くの書籍やWeb上の資料では式変形の行間が詰ま

      【徹底解説】変分ベイズをはじめからていねいに | Academaid
    • 【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid

      本記事の内容は新ブログに移行されました。 新しい記事へ こちらのブログにコメントをいただいても ご返信が遅れてしまう場合がございます。 予めご了承ください。 ご質問やフィードバックは 上記サイトへお願い致します。 今回は,確率モデルの潜在変数・パラメータの事後分布を求めるための繰り返し近似法である変分ベイズ法(Variational Bayesian methods)の解説とPythonで実装する方法をお伝えしていこうと思います。 本記事はpython実践講座シリーズの内容になります。その他の記事は,こちらの「Python入門講座/実践講座まとめ」をご覧ください。また,本記事の実装はPRML「パターン認識と機械学習<第10章>」に基づいています。演習問題は当サイトにて簡単に解答を載せていますので,参考にしていただければと思います。 【目次ページ】PRML演習問題解答を全力で分かりやすく解説

        【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid
      • 変分ベイズに関する復習 - Qiita

        はじめに 前回は、エントロピー・KL divergenceに関する基本的なことを復習しました。 今回は、変分ベイズに関する基本的なことを書いていこうと思います。 変分ベイズをまとめると、以下の通りです。 (自分なりの大まかな解釈です。) 今、自分たちはAについて知りたい。しかし、Aを直接知ることは困難 なので、良く分からないAを計算せず、計算可能なBについて考える BをなるべくAに近づけるよう形で定義したい ある基づいてBをAに近づけていく 十分にAに近づいたBは、もはや自分たちが知りたかったAと見なせる 少しざっくりしてますが、こんな風に理解しています。 では、この内容を具体的に考えていきます。 目的 目的は、観測データから未知の変数を求めることです。 $y$ を観測データ、$z$を推定したい未知の変数とすると、この問題は の事後確率分布を計算する問題となります。 これを解析的に求めるの

          変分ベイズに関する復習 - Qiita
        • 変分ベイズ法と償却推論:ローカルパラメータの効率的推論 - HELLO CYBERNETICS

          はじめに 変分ベイズ法あらまし 事後分布とその近似分布 第二種最尤推定 ローカルパラメータとグローバルパラメータ グローバルパラメータ 一旦脱線:同時分布のモデリング ローカルパラメータ 償却推論 ローカルパラメータの事後分布 変分パラメータを予測するモデルの導入 はじめに この記事は以下の知識を前提とします。 www.hellocybernetics.tech www.hellocybernetics.tech 余談ですが時間が経つのは速いもので、上記の記事を書いてから一年以上も経つのですね…。 変分ベイズ法あらまし 事後分布とその近似分布 まず、変分ベイズ法で近似推論しようとしている事後分布を、確率変数の実現値として得られているデータ $D$ と確率変数として扱うパラメータ $\theta$ を用い、確率変数として扱わないハイパーパラメータをまとめて $\alpha$ として下記のよう

            変分ベイズ法と償却推論:ローカルパラメータの効率的推論 - HELLO CYBERNETICS
          • 変分ベイズ法の解説 - Qiita

            この記事は古川研究室 Workout_calendar 6日目の記事です。 本記事は古川研究室の学生が学習の一環として書いたものです。 本記事では、隠れ変数(潜在変数)が出てくるモデルにおけるパラメータの分布推定法としての変分ベイズ法を解説します. 本記事で主に以下の2点について解説していきます. * 変分ベイズの問題の枠組みについて * 変分ベイズ法のアルゴリズムの導出 はじめに 変分ベイズ法とは潜在変数を伴うモデルにおける解法の1つです.通常のベイズ学習では、データ集合$D$が与えられた時のデータ尤度$p(D|\theta)$を最大にするようなパラメータ$\theta$を推定することを考えます.その際に、混合ガウスモデルや潜在ディリクレ配分法などの隠れ変数(潜在変数)を仮定するようなモデルの場合は、積分計算が解析的に計算することができません.そのような場合に、潜在変数やモデルのパラメー

              変分ベイズ法の解説 - Qiita
            • 3.3.8:LDAの周辺化変分ベイズ法【白トピックモデルのノート】 - からっぽのしょこ

              はじめに 『トピックモデルによる統計的潜在意味解析』の学習時のメモです。基本的な内容は、数式の行間を読んで埋めたものになります。本と併せて読んでください。 この記事では、3.3.8節の$\boldsymbol{\theta}_d, \boldsymbol{\phi}_k$を周辺化した周辺化変分ベイズ法について書いています。 数学よく解らない自分が理解できるレベルまで落として数式を書き下していますので、分かる人にはかなりくどいです。 【実装編】 www.anarchive-beta.com 【前節の内容】 www.anarchive-beta.com 【他の節一覧】 www.anarchive-beta.com 【この節の内容】 はじめに 3.3.8 LDAの周辺化変分ベイズ法 ・変分下限の導出 ・潜在トピックの近似事後分布の導出 ・テイラー展開による近似 ・テイラー展開 参考文献 おわりに

                3.3.8:LDAの周辺化変分ベイズ法【白トピックモデルのノート】 - からっぽのしょこ
              • 変分ベイズで RFM 指標から顧客生涯価値を計算してみる - ジョンとヨーコのイマジン日記

                モデルと尤度 RFM 指標から将来の購買回数を予測する Pareto / NBD モデルから派生したモデルに BG / NBD モデルがあります。 Pareto / NBD モデルより計算がかんたんです。 モデル: 顧客の購買はレート の定常ポアソン過程に従う 顧客の購買のたびに確率 で生存、 で離脱する の事前分布はパラメータ のガンマ分布とする の事前分布はパラメータ のベータ分布とする さらに、 と は顧客ひとりひとりで異なるとします。 通常は と を周辺化して最尤法でパラメータを推定することが多いようですが、今回は変分ベイズでパラメータを求めます。 変分ベイズを使うメリットは計算の速さです。 記法: 観測期間の終点を とする 観測期間内の購買回数の合計(フリクエンシー)を とする 顧客の i 回目の購買日時を とする とする 最後の購買時点で顧客が生存している場合を 、離脱している

                  変分ベイズで RFM 指標から顧客生涯価値を計算してみる - ジョンとヨーコのイマジン日記
                • SQ-VAE:自己アニーリングされた確率的量子化による離散表現の変分ベイズ

                  SQ-VAE: Variational Bayes on Discrete Representation with Self-annealed Stochastic Quantization ベクトル量子化変分オートエンコーダー(VQ-VAE)の注目すべき問題の1つは、学習された離散表現がコードブックの全容量のごく一部しか使用しないことです。これはコードブックの崩壊としても知られています。慎重に設計されたヒューリスティックを含むVQ-VAEのトレーニングスキームがこの問題の根底にあると仮定します。この論文では、確率的に量子化された変分オートエンコーダ(SQ-VAE)と呼ばれる、新しい確率的量子化と量子化を介して標準VAEを拡張する新しいトレーニングスキームを提案します。 SQ-VAEでは、量子化はトレーニングの初期段階では確率的であるが、自己アニーリングと呼ばれる決定論的量子化に向かって徐

                    SQ-VAE:自己アニーリングされた確率的量子化による離散表現の変分ベイズ
                  • Hiroshi Matsui on Twitter: "最近の変分ベイズってなんかパラメータ間の相関も入るようになってるの・・・もはや俺には何が何だか・・・"

                    最近の変分ベイズってなんかパラメータ間の相関も入るようになってるの・・・もはや俺には何が何だか・・・

                      Hiroshi Matsui on Twitter: "最近の変分ベイズってなんかパラメータ間の相関も入るようになってるの・・・もはや俺には何が何だか・・・"
                    • 無から始める変分ベイズ - Qiita

                      動機 何らかのパラメータ $\theta$ で記述された分布があって、その分布から観測データ $D$ が得られるとします。ベイズの定理 $$ p(\theta | D) = \dfrac{p(D|\theta) p(\theta)}{p(D)} = \dfrac{p(D|\theta) p(\theta)}{\int p(D|\theta) p(\theta) d\theta} $$ では、$p(\theta)$ を事前確率、$p(\theta|D)$ を事後確率と呼びますが、これを使って、事後確率が最大となる $\theta$ を求めたり(MAP推定)、$p(\theta|D)$ を実際に計算したり(ベイズ推定)したりするのでした。 参考: 藤井四段で学ぶ最尤推定、MAP推定、ベイズ推定 一方、確率的生成モデルと呼ばれる高度な方法だと、$\theta$ は決定的な値ではなく確率変数として

                        無から始める変分ベイズ - Qiita
                      • 【R】3.4.3:LDAの確率的変分ベイズ法【白トピックモデルのノート】 - からっぽのしょこ

                        はじめに 『トピックモデルによる統計的潜在意味解析』の学習時のメモです。本と併せて読んでください。 この記事では、3.4.3項のLDAの確率的変分ベイズ法について書いています。図3.6の疑似コードを基にR言語で実装していきます。 プログラムからアルゴリズムの理解を目指します。できるだけ基本的な(直感的に理解できる)関数を用いて組んでいきます。 【数理編】 www.anarchive-beta.com 【前節の内容】 www.anarchive-beta.com 【他の節一覧】 www.anarchive-beta.com 【この節の内容】 はじめに 3.4.3 LDAの確率的変分ベイズ法 ・パラメータの設定 ・確率的変分ベイズ法 ・推定結果の確認 ・更新値の推移の確認 参考文献 おわりに 3.4.3 LDAの確率的変分ベイズ法 図3.6の疑似コードを参考にLDAに対する確率的変分ベイズ法を

                          【R】3.4.3:LDAの確率的変分ベイズ法【白トピックモデルのノート】 - からっぽのしょこ
                        • 【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid

                          本記事の内容は新ブログに移行されました。 新しい記事へ こちらのブログにコメントをいただいても ご返信が遅れてしまう場合がございます。 予めご了承ください。 ご質問やフィードバックは 上記サイトへお願い致します。 今回は,確率モデルの潜在変数・パラメータの事後分布を求めるための繰り返し近似法である変分ベイズ法(Variational Bayesian methods)の解説とPythonで実装する方法をお伝えしていこうと思います。 本記事はpython実践講座シリーズの内容になります。その他の記事は,こちらの「Python入門講座/実践講座まとめ」をご覧ください。また,本記事の実装はPRML「パターン認識と機械学習<第10章>」に基づいています。演習問題は当サイトにて簡単に解答を載せていますので,参考にしていただければと思います。 【目次ページ】PRML演習問題解答を全力で分かりやすく解説

                            【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid
                          1