並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 65件

新着順 人気順

変分ベイズの検索結果1 - 40 件 / 65件

  • 変分ベイズを使って変化点検知をしてみる - 作って遊ぶ機械学習。

    おつかれさまです.今回は簡単なメッセージ受信数のデータを使って,変分ベイズによる変化点検知をやってみたいと思います.なお,今回使うデータやモデルは下記のPyMCの入門書を参考にしています*1. Pythonで体験するベイズ推論-PyMCによるMCMC入門-キャメロン-デビッドソン-ピロン この本では推論にMCMCを使っていますが,今回はモデルはそのまま流用し,同じことを実現する変分ベイズによる近似推論を導いてみます. 一般的には変分ベイズの方が計算が高速なので,MCMCの性能に満足できない場合などは変分ベイズは良い代替手法になり得ます.また,今回紹介する例は,過去に紹介した混合モデルを使った例よりも比較的シンプルですので,変分ベイズの入門題材にはちょうど良いんじゃないかと思っています. MCMCによる変化点検知 ・メッセージ受信データ PyMC本では次のような「ある期間で受信したメール数」

      変分ベイズを使って変化点検知をしてみる - 作って遊ぶ機械学習。
    • 【徹底解説】変分ベイズをはじめからていねいに | Academaid

      初学者の分かりやすさを優先するため,多少正確でない表現が混在することがあります。もし致命的な間違いがあればご指摘いただけると助かります。 はじめに 機械学習を勉強したことのある方であれば,変分ベイズ(VB:variational bayes)の難しさには辟易したことがあるでしょう。私自身,学部生時代に意気揚々と機械学習のバイブルと言われている「パターン認識と機械学習(通称PRML)」を手に取って中身をペラペラめくってみたのですが,あまりの難しさから途方に暮れてしまったことを覚えています。 機械学習の登竜門は,変分ベイズ(変分推論)だと私は考えています。また,VAE(変分オートエンコーダ;variational autoencoder)に代表されるように,変分ベイズは最近の深層学習ブームにおいて理論面の立役者となっている側面もあります。一方で,多くの書籍やWeb上の資料では式変形の行間が詰ま

        【徹底解説】変分ベイズをはじめからていねいに | Academaid
      • 変分ベイズについての資料まとめ(随時更新) - old school magic

        変分ベイズとは? 平均場近似、変分推論、ベイズ学習など様々な呼び方があります。 フリーで読める解説だとこれが一番わかりやすかったです。 自然言語処理のための変分ベイズ法 http://www.ism.ac.jp/~daichi/paper/vb-nlp-tutorial.pdf CiNiiユーザならこのシリーズがおすすめです。 ベイズ学習[I] : 統計的学習の基礎 http://ci.nii.ac.jp/naid/110003230932/ PRML関連のまとめ PRMLの第10章が変分ベイズについての話です。 とても詳しく説明されているのですが、かなり難し目です。 なのでそこを解説した記事のまとめです。 PRML 読書会 #13 10章 近似推論法(変分ベイズ) - Mi manca qualche giovedi`? http://d.hatena.ne.jp/n_shuyo/201

          変分ベイズについての資料まとめ(随時更新) - old school magic
        • 混合ガウス分布モデルのクラスタをk平均法とEMアルゴリズムと変分ベイズでそれぞれ推定 - 西尾泰和のはてなダイアリー

          「クラスタは球状だ」と想定しているk平均法が苦労するように、細長くて交差したクラスタのデータを使った。また変分ベイズの「クラスタの個数を自動調整する」というメリットを確認するために、クラスタの個数は2, 4, 8個で行った。EMアルゴリズムと変分ベイズでは、k平均法ができていない「長細いクラスタだ」という推定ができている。またEMアルゴリズムではクラスタの個数は人間が与えないといけないが変分ベイズでは自動調整されている。ただし、自動調整に失敗することも結構あるので「何回か実行して一番良かったものを取る」というアプローチが必要だろうな。変分ベイズの8クラスタでの実験は10回やって一番良かったものを取っている。4クラスタの実験は6回。それぞれ初期状態から20ステップの学習過程を動画にしている。 k平均法 k平均法では細長いクラスタを見つけられないのでこれが限界 4クラスタの例。クラスタの個数を

            混合ガウス分布モデルのクラスタをk平均法とEMアルゴリズムと変分ベイズでそれぞれ推定 - 西尾泰和のはてなダイアリー
          • 【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid

            本記事の内容は新ブログに移行されました。 新しい記事へ こちらのブログにコメントをいただいても ご返信が遅れてしまう場合がございます。 予めご了承ください。 ご質問やフィードバックは 上記サイトへお願い致します。 今回は,確率モデルの潜在変数・パラメータの事後分布を求めるための繰り返し近似法である変分ベイズ法(Variational Bayesian methods)の解説とPythonで実装する方法をお伝えしていこうと思います。 本記事はpython実践講座シリーズの内容になります。その他の記事は,こちらの「Python入門講座/実践講座まとめ」をご覧ください。また,本記事の実装はPRML「パターン認識と機械学習<第10章>」に基づいています。演習問題は当サイトにて簡単に解答を載せていますので,参考にしていただければと思います。 【目次ページ】PRML演習問題解答を全力で分かりやすく解説

              【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid
            • 変分ベイズ法の説明

              変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。

                変分ベイズ法の説明
              • 変分ベイズの理論 titech

                が成り立つことは、 統計力学が成立したころから知られていたのではないかと思います・・・。 2.物理学科の3年生で習うこと 物理学科の3年生はみんな、次のことを学習します。 これは数学や情報学では、あまり習わないことなので、物理学科以外の人の 参考になるかも知れません。 (1) 平均場近似は、本当の分配関数 Z を知らなくても計算できますが、 その代わり、平均場近似では本当の Z を知ることはできません。 つまり平均場近似が計算できるということと、本当の現象を知るということは、 情報論的に独立な(?)仕事です。 (2) 1次元スピン系では、平均場近似も厳密解も計算できます。 1次元スピン系では、平均場近似は相転移を持ちますが、厳密解は相転移を持ちません。 ほとんどのモデルで平均場近似は計算できますが、たいていのモデルで厳密解は 計算できません。厳密解が計算できないケ

                • 変分法をごまかさずに変分ベイズの説明をする - StatModeling Memorandum

                  StanでADVIが使えるようになったので、変分ベイズの基礎は抑えておきたいなぁと思って最近学んでいました。自分向けのメモとして残します。 対数周辺尤度・変分下限・KL情報量 目的は事後分布の最もよい近似となるを求めることです。にはあとで因子分解可能という条件を入れます。 イエンセンの不等式を使って、対数周辺尤度を下から評価すると、 を変分下限と呼びます。任意の関数の関数です。対数周辺尤度はevidenceとも呼ばれるため、変分下限はevidence lower bound、略してELBOとも呼ばれます。対数周辺尤度と変分下限の差は、 となります。これはと事後分布のKL情報量(Kullback-Leiblerdivergence)です。対数周辺尤度がにはよらない、データのみから決まる定数であることを考えると、事後分布の最もよい近似となるを求めることは、変分下限を最大化することに等価になりま

                    変分法をごまかさずに変分ベイズの説明をする - StatModeling Memorandum
                  • PythonのSymPyで変分ベイズの例題を理解する - StatModeling Memorandum

                    この記事の続きです。 ここではPRMLの10.1.3項の一変数ガウス分布の例題(WikipediaのVariational_Bayesian_methodsのA basic exampleと同じ)をSymPyで解きます。すなわちデータが に従い*1、とが、 に従うという状況です。ここでデータ()が得られたとして事後分布を変分ベイズで求めます。 まずはじめに、上記の確率モデルから同時分布を書き下しておきます。 なので、 となります。 この問題は単純なので事後分布は厳密に求まるのですが、ここでは変分ベイズで解きます。すなわち、事後分布をで近似します。さらにと因子分解可能と仮定します。そして、前の記事の最後の2つの式を使って、とが収束するまで繰り返し交互に更新して求めるのでした。以下ではこれをSymPyでやります。 from sympy import * from sympy.stats imp

                      PythonのSymPyで変分ベイズの例題を理解する - StatModeling Memorandum
                    • 「変分ベイズ学習」の学習

                      機械学習プロフェッショナルシリーズの変分ベイズ学習を読んでいる時に,もっとも引っかかった変分ベイズの停留条件の導出の式展開を真面目にやってみました. 汎関数微分や試験関数の厳密性は勘弁してください・・・・・・. 間違っているところがあれば,指摘いただけるとうれしいです. 自由エネルギー$F$が停留する条件を考えると,それがベイズ事後分布の条件になるよ・・・というところです. ## 自由エネルギー$F$を$r_s$で微分し,汎関数微分の値が常に0となる停留条件を考える. $r_s$の関数として,自由エネルギー$F$を整理する. $\scriptsize{ \begin{eqnarray} F({r_s}) &=& \int {\prod\limits_{m = 1}^S {{r_m}({\omega _m}) \cdot \log \frac{{\prod\limits_{m = 1}^S

                        「変分ベイズ学習」の学習
                      • Bayesian NMFを確率的変分ベイズ法で解く - Qiita

                        NMFは行列を非負値の行列の積に分解する、毎度おなじみのあれです。分解後の行列の各要素に事前分布を導入したものがBayesian NMFです。 X_{vd} \sim Poisson(\sum_{k=1}^{K}\beta_{vk}\theta_{kd}) \\ \beta_{vk} \sim Gamma(c_{0}/V, c_{0}) \\ \theta_{kd} \sim Gamma(a_{0}, b_{0}) 同じベイズ的行列分解モデルのLDAとの対応を考えると、$\beta_{:k}$をtopicと見なせます(Bayesian NMFの$X$とLDAの$W$は転置の関係にあることは少し注意です)。 一方で$\sum_{v}\beta_{vk} \neq 1$となるところが異なります。 Stochastic variational Bayesian method 変分ベイズ法に確率的

                          Bayesian NMFを確率的変分ベイズ法で解く - Qiita
                        • 自然言語処理のための変分ベイズ法

                          • PRML 10章の変分ベイズによる混合ガウス分布推論の検証(フォロー編) - 木曜不足

                            「パターン認識と機械学習(PRML)」10.2 章に従って変分ベイズ(Variational Bayes, VB)を R で実装してみて、PRML に書いてある内容通りか確認してみたところ、なんか違う。 「『変分混合ガウス分布は、余った混合要素は勝手にゼロになるから K が大きくてもいいよ』とか書いてあるけど全然縮退しないよ。ベイズ職人でないとうまくいかないらしいよ」 「初期値について『対称性から、通常 m_0=0 とおく』と書いてあるけど、ほんとに m_0=0 にしたら、全パラメータが k に対して同じ値になっちゃうよ」 と言いふらしていたら、スクリプトのバグだった。 ので、罪滅ぼしにまじめにもうちょっといろいろ検証してみたよ、というお話。 経緯 変分ベイズ実装(PRML 10.2) https://shuyo.hatenablog.com/entry/20100306/variatio

                              PRML 10章の変分ベイズによる混合ガウス分布推論の検証(フォロー編) - 木曜不足
                            • 変分ベイズ学習の理論 中島伸一 ニコン光技術研究所

                              S.D. Babacan Google TTIC 1 NIKON CORPORATION Core Technology Center November 13, 2013 2 NIKON CORPORATION Core Technology Center November 13, 2013 MAP 3 NIKON CORPORATION Core Technology Center November 13, 2013 MAP 4 NIKON CORPORATION Core Technology Center November 13, 2013 MAP 5 NIKON CORPORATION Core Technology Center November 13, 2013 MAP AIC BIC WAIC WBIC 6 NIKON CORPORATION Core Technology

                              • EMアルゴリズム→一般化EMアルゴリズム→変分ベイズ - yasuhisa's blog

                                EMアルゴリズム自然言語処理特論で、EMアルゴリズムが紹介されたので、自分たちでやっているゼミでEMアルゴリズムについて紹介した。EMアルゴリズムの基本的な考え方は、対数尤度を変形していき、イェンセンの不等式によって下界を与え、その下界をカルバックライブラーダイバージェンスとQ関数に分解、パラメータについて関係あるQ関数の最大化をすれば、対数尤度関数も最大になる、というものであった。よい下界を与えてあげることで、最適化問題が簡単になりiterationの間、対数尤度対数尤度関数は単調非減少であるという性質から極大な点に収束してくれるというよい性質を持っていた。 一般化EMアルゴリズム隠れ変数をもっと一般的な状況にしたものについて考える。因果ネットワークと呼ばれるようなものでは、隠れ変数と観測変数の依存関係が指数関数的に増えてしまい、EMアルゴリズムでは現実的な時間での計算が厳しくなる。この

                                  EMアルゴリズム→一般化EMアルゴリズム→変分ベイズ - yasuhisa's blog
                                • NUTSとADVI(自動変分ベイズ)の比較 - StatModeling Memorandum

                                  RStan2.9.0がリリースされました。今まで{rstan}パッケージのsampling関数を使っていたところを、vb関数に変更するだけでサンプリングのアルゴリズムをNUTSからADVI(Automatic Differentiation Variational Inference)に変更することができます。ADVIはユーザーが変分下限の導出や近似分布qを用意をすることなしに、自動的に変分ベイズしてくれます。得られるアウトプットはNUTSとほぼ同様で近似事後分布からの乱数サンプルです。ウリはスピードです。NUTSもADVIもデフォルトのオプションのまま実行して、NUTSと比べて50倍ぐらいスピードが出ることもあります。 NUTSと同様にADVIは効率的な探索のため偏微分を使っているので、離散値をとるパラメータは使えませんが、やはり同様に離散パラメータを消去すれば実行できます。そして、微分

                                    NUTSとADVI(自動変分ベイズ)の比較 - StatModeling Memorandum
                                  • 変分ベイズの理論

                                    このページを作成したのは2005年でした。このページを作成した後から 解明されたこともたくさんありますが、このページは、このまま掲示を 続けたいと思います。なお、論文情報については更新しました。(2010/May/11) 最近、研究室の人たちが、学習理論における平均場近似の 精度について理論的な研究をされているので、かんたんな解説を 書いてみました。 1.平均場近似 w=(w1,w2,..,wd) を d 次元ユークリッド空間の中のベクトルとします。 p(w) を d 次元ユークリッド空間の上の確率分布とします。 p(w) を作りたくても高次元上の確率分布はなかなか作れないという問題があります。 このとき、全ての変数 w1, w2, . . . , wd が独立である確率分布

                                    • 自動微分変分ベイズ法の紹介

                                      [DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP

                                        自動微分変分ベイズ法の紹介
                                      • 変分ベイズ法の心 - HELLO CYBERNETICS

                                        ベイズ推論の基本 変分ベイズ学習 変分法の心 変分ベイズ法の戦略 ベイズ推論の基本 ベイズモデリングの概要については下記の記事を参考にしてください。 www.hellocybernetics.tech 概要をさらっとなぞると、ベイズ推論の基本的な話としては、観測データ $x$ の真の確率分布 $\hat p(x)$ を知る由もないので、確率モデル $p(x | \theta)$ でモデル化し、更にパラメータ $\theta$ にも事前分布 $p(\theta)$ を仮定します。 $$ p(x, \theta) = p(x | \theta)p(\theta) = p(\theta | x) p(x) $$ という確率分布に対していつでも成り立っている乗法定理から、 $$ p(\theta | x) = \frac{p(x|\theta)p(\theta)}{p(x)} $$ とできます。そ

                                          変分ベイズ法の心 - HELLO CYBERNETICS
                                        • PRML 読書会 #12 9章 EMアルゴリズム&10章 変分ベイズ - 木曜不足

                                          参考:「機械学習とパターン認識」(PRML)のアンチョコ by herumi PRML 9章や10章の数式の解説ノート。10章の大変な計算も丁寧に展開してある。 3/7 の C.M.ビショップ「パターン認識と機械学習(PRML)」読書会 #12@サイボウズ・ラボ に参加しました。各位お疲れ様でした。 今回のテーマは9章の EM アルゴリズムと10章の変分推論(変分ベイズ)。 盛り上がって参りました。 これまでも圧倒的なパワーで並み居る参加者をなぎ倒してきた PRML。しかし全てはウォーミングアップに過ぎなかった。 第12話の、PRML のセリフ「わたしの戦闘力は53万です」に凍り付く参加者一同。 はたして生き残ることは出来るのか!? だいたいあってる? というわけで、PRML の一番大変な範囲に突入。 でも、9〜13章は EM, VB(変分ベイズ), MCMC, Gibbs サンプリング,

                                            PRML 読書会 #12 9章 EMアルゴリズム&10章 変分ベイズ - 木曜不足
                                          • 変分ベイズ実装(PRML 10.2) - 木曜不足

                                            「Old Faithful の推論を K-means と EM について、Rで実装」の続き。 【追記】実装にバグが見つかり、この記事の末尾の「うまく縮退しない」は間違いでした。→フォロー記事へ PRML 10章、変分推論(変分ベイズ)がいまいちわからない。 観測&隠し変数のハイパーパラメータにも事前分布を導入(ここが「ベイズ」) 隠し変数+ハイパーパラメータ間に、「適当な独立性を仮定」して排反なグループに分割し、それぞれ任意の分布を想定(ここが「変分近似」???) 個々のグループごとに、対数同時分布の事後期待値を最適化(ここは EM と同様の枠組み) ということだろう、と理解したつもりだが、実感として掴めない。「排反なグループに分割」って漠然と言われてもなあ。 例によって、言葉を定義せずに使うし。「変分近似」って、何ね? 毎度ながら、こういうときは手を動かすに限る。 明日の PRML 読書

                                              変分ベイズ実装(PRML 10.2) - 木曜不足
                                            • [Stan] NUTSとADVI(自動変分ベイズ)の比較

                                              RStan2.9.0がリリースされました。今まで{rstan}パッケージのsampling関数を使っていたところを、vb関数に変更するだけでサンプリングのアルゴリズムをNUTSからADVI(Automatic Differentiation Variational Inference)に変更することができます。ADVIはユーザーが変分下限の導出や近似分布qを用意をすることなしに、自動的に変分ベイズしてくれます。得られるアウトプットはNUTSとほぼ同様で近似事後分布からの乱数サンプルです。ウリはスピードです。NUTSもADVIもデフォルトのオプションのまま実行して、NUTSと比べて50倍ぐらいスピードが出ることもあります。 NUTSと同様にADVIは効率的な探索のため偏微分を使っているので、離散値をとるパラメータは使えませんが、やはり同様に離散パラメータを消去すれば実行できます。そして、微分

                                                [Stan] NUTSとADVI(自動変分ベイズ)の比較
                                              • ゼミ納め & EM、GEM(一般化EM)、VB(変分ベイズ) - 糞ネット弁慶

                                                というわけでゼミ納め。 CiNii 論文 -  EMアルゴリズムの新展開 : 変分ベイズ法 自然言語処理のための変分ベイズ法(pdf) 変分ベイズ学習 Variational Bayes Learning(pdf) EMアルゴリズム、GEM(一般化EM)、VB(変分ベイズ)の話をした。 変分ベイズは名前だけ聞くと仰々しいけどやってることは式変形はEMやGEMと同じノリだったので、EMとGEMの式変形を何度か追えば納得できる感じ。 超大雑把な流れとしては 最適化とか使わないで最尤推定したい!→EMで値を更新していこう EMじゃ計算が糞めんどくさい項がある!→を使ってを近似しよう!(GEM) でもこれだけじゃ満足できない!!!! 過学習とか起こりそう… モデル構造とか↑の2つじゃ決められなさそう… と言うことで、パラメータやモデル構造を確率変数として学習するベイズ学習ならいけそう!(変分ベイズ

                                                  ゼミ納め & EM、GEM(一般化EM)、VB(変分ベイズ) - 糞ネット弁慶
                                                • 混合ガウス分布のための変分ベイズ推定

                                                  • PRML 読書会 #13 10章 近似推論法(変分ベイズ) - 木曜不足

                                                    参考:「機械学習とパターン認識」(PRML)のアンチョコ by herumi PRML 9章や10章の数式の解説ノート。10章の大変な計算も丁寧に展開してある。 4/10 の C.M.ビショップ「パターン認識と機械学習(PRML)」読書会 #13@サイボウズ・ラボ に参加しました。各位お疲れ様でした。 今回のテーマは10章の変分推論(変分ベイズ)。監訳者のしましま先生からも「PRML本で最も恐ろしいところ」とお墨付きをもらっているほどの鬼計算の章。 10.2.1 の混合ガウス分布を変分ベイズで推論する例のところを担当した。 発表資料 10.2-10.2.1 例:変分混合ガウス分布、資料後半 by id:n_shuyo 10.2.2-10.2.5 変分下限*1〜導出された分解 by wk さん 10.3 変分線形回帰 by id:tsubosaka さん 10.4-10.5 指数型分布族〜局

                                                      PRML 読書会 #13 10章 近似推論法(変分ベイズ) - 木曜不足
                                                    • 変分ベイズに関する復習 - Qiita

                                                      はじめに 前回は、エントロピー・KL divergenceに関する基本的なことを復習しました。 今回は、変分ベイズに関する基本的なことを書いていこうと思います。 変分ベイズをまとめると、以下の通りです。 (自分なりの大まかな解釈です。) 今、自分たちはAについて知りたい。しかし、Aを直接知ることは困難 なので、良く分からないAを計算せず、計算可能なBについて考える BをなるべくAに近づけるよう形で定義したい ある基づいてBをAに近づけていく 十分にAに近づいたBは、もはや自分たちが知りたかったAと見なせる 少しざっくりしてますが、こんな風に理解しています。 では、この内容を具体的に考えていきます。 目的 目的は、観測データから未知の変数を求めることです。 $y$ を観測データ、$z$を推定したい未知の変数とすると、この問題は の事後確率分布を計算する問題となります。 これを解析的に求めるの

                                                        変分ベイズに関する復習 - Qiita
                                                      • Amazon.co.jp: 変分ベイズ学習 (機械学習プロフェッショナルシリーズ): 中島伸一: 本

                                                          Amazon.co.jp: 変分ベイズ学習 (機械学習プロフェッショナルシリーズ): 中島伸一: 本
                                                        • 変分ベイズ法と償却推論:ローカルパラメータの効率的推論 - HELLO CYBERNETICS

                                                          はじめに 変分ベイズ法あらまし 事後分布とその近似分布 第二種最尤推定 ローカルパラメータとグローバルパラメータ グローバルパラメータ 一旦脱線:同時分布のモデリング ローカルパラメータ 償却推論 ローカルパラメータの事後分布 変分パラメータを予測するモデルの導入 はじめに この記事は以下の知識を前提とします。 www.hellocybernetics.tech www.hellocybernetics.tech 余談ですが時間が経つのは速いもので、上記の記事を書いてから一年以上も経つのですね…。 変分ベイズ法あらまし 事後分布とその近似分布 まず、変分ベイズ法で近似推論しようとしている事後分布を、確率変数の実現値として得られているデータ $D$ と確率変数として扱うパラメータ $\theta$ を用い、確率変数として扱わないハイパーパラメータをまとめて $\alpha$ として下記のよう

                                                            変分ベイズ法と償却推論:ローカルパラメータの効率的推論 - HELLO CYBERNETICS
                                                          • 変分ベイズ学習 Variational Bayes Learning 東京工業大学大学院 知能システム科学専攻 渡辺研究室 M1 大山慎史 Outline   一般的な学習とベイズ学習   ベイズ学習の問題点   変分ベイズ

                                                            変分ベイズ学習 Variational Bayes Learning 東京工業大学大学院 知能システム科学専攻 渡辺研究室 M1 大山慎史 Outline   一般的な学習とベイズ学習   ベイズ学習の問題点   変分ベイズ学習の概略   変分ベイズアルゴリズム   変分ベイズで不明なこと   実験と結果   結論と今後 変分ベイズの説明 研究的内容 Outline   一般的な学習とベイズ学習   ベイズ学習の問題点   変分ベイズ学習の概略   変分ベイズアルゴリズム   変分ベイズで不明なこと   実験と結果   結論と今後 変分ベイズの説明 研究的内容 一般的な学習 真の分布 データ 学習モデル 学習、推定 ベイズ学習   ベイズでは、パラメータを点ではなく分布で推測する。   まず事前分布    を用意し、それにデータ

                                                            • 変分ベイズの自分向けの説明

                                                              StanでADVIが使えるようになったので、変分ベイズの基礎は抑えておきたいなぁと思って最近学んでいました。自分向けのメモとして残します。 ●対数周辺尤度・変分下限・KL情報量 目的は事後分布 の最もよい近似となる を求めることです。 にはあとで因子分解可能 という条件を入れます。 イエンセンの不等式を使って、対数周辺尤度 を下から評価すると、          を変分下限と呼びます。任意の関数 の関数です。対数周辺尤度はevidenceとも呼ばれるため、変分下限はevidence lower bound、略してELBOとも呼ばれます。対数周辺尤度と変分下限の差は、          となります。これは と事後分布 のKL情報量(Kullback-Leiblerdivergence)です。対数周辺尤度が にはよらない、データ のみから決まる定数であることを考えると、事後分布の最もよい近似と

                                                              • 変分ベイズ法の心2 - HELLO CYBERNETICS

                                                                はじめに 変分ベイズ法の戦略 基本の復習 分布の評価指標 ELBO 変分ベイズ法の具体的手段 関数 $q$ をどのように置くのか はじめに 下記記事の続きで、お気持ちは理解している前提で進みます。 www.hellocybernetics.tech 変分ベイズ法の戦略 基本の復習 データ $D = {x_1, \cdots, x_N}$ が手元にあるときに確率モデル $p(x|\theta)$ と事前分布 $p(\theta)$ を設計するのがモデリングの第一歩でした。するとベイズの定理(あるいは乗法定理)から、下記の事後分布を獲得することがベイズ推論の目標になります。 $$ p(\theta | D) = \frac{p(D|\theta)p(\theta)}{p(D)} $$ さて、この分布を推論したときに最も嬉しい結果は $\theta$ を表す真の分布 $\hat p(\theta

                                                                  変分ベイズ法の心2 - HELLO CYBERNETICS
                                                                • 第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法

                                                                  The Advertising Algorithm Architecture in Xiaomi and How does Pegasus Practic...acelyc1112009

                                                                    第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法
                                                                  • 変分推論法(変分ベイズ法)(PRML第10章)

                                                                    1. 変分推論法(変分ベイズ法) 「第10章 近似推論法」, C.M.ビショップ, パターン認識と学習(下), シュプリンガー・ジャパン,2007. 2013/12/04 上智大学 山中高夫 10.1 変分推論 10.2 例:変分混合ガウス分布 (10.3-10.7は別の機会に) 2. 近似推論法(1)  やりたいこと 観測データ𝑿が与えられた時に, (1) 潜在変数𝒁の事後分布𝑝 𝒁|𝑿 (2) この事後分布を使った期待値 を求めたい. 例えば,混合ガウス分布の場合 潜在変数 𝐾次元の2値確率変数1-of-K表現 (どれか一つだけ1,残りが0) 事後分布𝑝 𝒁|𝑿 各データ𝑿が特定のガウス分布か ら生成される確率 混合ガウス分布 潜在変数 𝑝 𝒛 = 𝜋 𝑘 𝑧 𝑘 𝐾 𝑘=1 条件付き分布 𝑝 𝒙|𝒛 = 𝑁 𝒙|𝝁 𝑘, 𝚺 𝑘

                                                                      変分推論法(変分ベイズ法)(PRML第10章)
                                                                    • Latent Process Decompositionのためのcollapsed変分ベイズ推定の解説 | photogenic blue note

                                                                      下記論文にある,latent process decompositionのためのcollapsed変分ベイズ推定について,ガウス分布による近似のところをのぞいて,式の導出を解説した文書を書きました.ここをクリックしてください. Yiming Ying, Peng Li and Colin Campbell. A marginalized variational bayesian approach to the analysis of array data. BMC Proceedings 2008, 2(Suppl 4):S7. [2009/03/27 追記] 大学のWebサーバ,メールサーバが移転のため休止中です.上記の私が作成した解説文書は,間違いがあったので修正しました.新しいバージョンは,Webサーバが復活し次第,アップします. また,実装も終えて,wineデータセットについて,ほ

                                                                      • 確率的プログラミング言語Pyroと変分ベイズ推論の基本 - HELLO CYBERNETICS

                                                                        はじめに ベイズ推論 モデリング 事後分布 予測分布 実際に使われる予測分布 Pyroの基本 Pyroの確率変数の取扱 Pyroのハイパーパラメータの取扱 Pyroでの変分パラメータの取扱 変分ベイズ推論のコード:確率モデル 変分モデル 学習コード 変分推論のカスタマイズ pyroについて はじめに タイトルの通り基本だけ書きます。 Pyroは解説できるほど触っていないので、大したことは書けませんが、何も知識が無いよりはとっつきやすくなるであろうことを書いておきます。 ベイズ推論 モデリング ベイズモデリングとは観測データ $X$ を、パラメータだとか潜在変数だとか呼ばれる「未観測の確率変数」を使ってモデリングする試みです。例えば $X$ が正規分布に従うと思っているのならばパラメータ $\mu, \sigma$ を用いて、$ N(X | \mu, \sigma) $という確率モデルを考え

                                                                          確率的プログラミング言語Pyroと変分ベイズ推論の基本 - HELLO CYBERNETICS
                                                                        • 【ADVI】Stan で変分ベイズ |

                                                                          ADVI in Stan は既に多くの方が試されているのですが, まずは触って理解したいのもあり試してみました。 ちなみに今まで Stan Code をインラインで書いていましたが, ATOM の language-stan を使ったら Stan の syntax highlight がいい感じだったので別ファイルから読み込むようにしました。 ADVIとは 2015年に発表 [1] された ADVI (Automatic Differentiation Variational Inference, 自動変分ベイズ) は 変分下限や近似分布を与えなくても自動的に事後分布の最もよい近似分布を KLダイバージェンス で探索して, その近似事後分布からのサンプルを得ることができる。サンプルが得られれば, MCMC同様に性質を調べることで知りたいパラメータを推定できる。既に Stan に実装があり,

                                                                          • 【PyTorch】多項式回帰MAP推定・変分ベイズ推論を試す - HELLO CYBERNETICS

                                                                            はじめに 利用するモジュール torch.distributions の基本 分布の記述 サンプリング 対数尤度の計算 MAP推定 用いるデータ モデル 目的関数 学習コード PyTorchっぽく書く 変分推論 変分モデル 目的関数 学習コード 変分推論をPyTorchっぽく書く はじめに 今回は適当な人工データで多項式回帰を実施します。MAP推定、変分ベイズ推論と見ていきます。今回はそれぞれの学習方法が「どのような性能を達成するか」という視点ではなく、実装を通して「具体的に何を計算しているのか」を見ていくことにします。 今回は、PPLであるPyroを用いずに、PyTorchのみを使って実装を行います。そうするとMAP推定までは良いのですが、変分ベイズ推論が極めて面倒なコードを書かなければなりません。何を計算しなければならないのかを知っていれば、書く前から面倒だなということは分かるのですが

                                                                              【PyTorch】多項式回帰MAP推定・変分ベイズ推論を試す - HELLO CYBERNETICS
                                                                            • 変分ベイズでディリクレ過程混合モデル(Blei論文を解く)

                                                                              DPMに対する変分ベイズ法を書いたBleiの論文、Variational inference for Dirichlet Process mixturesを解いてみました。 ざっと書き上げたまま確認をしておりませんので、間違いがあればご指摘ください。 式展開だけ妙に丁寧にしていますが、全体的に分かりにくい文だなぁ... https://www.box.net/shared/2e6k7abce5 Google DocumentsがPDF Web共有できればいいのに!

                                                                              • EMアルゴリズムの新展開:変分ベイズ法 | CiNii Research

                                                                                JaLC IRDB Crossref DataCite NDL NDL-Digital RUDA JDCat NINJAL CiNii Articles CiNii Books CiNii Dissertations DBpedia Nikkei BP KAKEN Integbio MDR PubMed LSDB Archive 極地研ADS 極地研学術DB 公共データカタログ ムーンショット型研究開発事業

                                                                                • LDAにおける変分ベイズ法によるパラメータ推定 (1) 正田 備也 平成 18 年 8 月 18 日 LDA (Latent Dirichlet Allocation) は、ひとつの文書が複数のトピックを含むことを表現できる確率的な文書モ デル��

                                                                                  LDAにおける変分ベイズ法によるパラメータ推定 (1) 正田 備也 平成 18 年 8 月 18 日 LDA (Latent Dirichlet Allocation) は、ひとつの文書が複数のトピックを含むことを表現できる確率的な文書モ デルのひとつである。 変分ベイズ法は、ある程度複雑な確率的文書モデル m において、それによって生成されたと見なされている文書 集合 D = {d1, . . . , } について、事後分布 P(D|m) を求めるのが非常に難しいときに使われる方法である。文書モデ ル m のパラメータ群を θ とし、隠れ変数群(文書モデルの場合、トピックを表す変数群であることが多い)を Z と すると、変分ベイズ法の基本は、次の Jensen の不等式にある。 log P(D|m) = log P(Z, D, θ|m)dθdZ (1) = log Q(Z, θ) P(