並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 46件

新着順 人気順

最尤推定の検索結果1 - 40 件 / 46件

  • 藤井四段で学ぶ最尤推定、MAP推定、ベイズ推定 - Qiita

    藤井四段の連勝が止まらないですね。 21日の対局に勝利して、連勝記録を1位タイの28連勝まで伸ばしてきました。26日の対局で勝利すれば単独トップになります。 そんな藤井四段の対戦成績は28勝0負。勝率でいうと1.000です。クラクラするような成績ですが、この「勝率」とは何かを少し数学的にみてみましょう。 単純に言葉だけをみると「藤井四段が勝利する確率」ではないかと考えられます。つまり $$P(\text{勝利}\ |\ \text{藤井四段}) = 1.0$$かのように感じます。 ではここで、26日の対局で藤井四段が勝利する確率はどれだけでしょう? $P(\text{勝利}\ |\ \text{藤井四段}) = 1.0$として考えると、これはつまり藤井四段は必ず勝つので、100%になってしまいます。しかし、もちろんそんなことはありません。藤井四段ですらも負けることはあるはずです。 実はここ

      藤井四段で学ぶ最尤推定、MAP推定、ベイズ推定 - Qiita
    • 最尤推定、MAP推定、ベイズ推定 - 人工知能に関する断創録

      1.2.5 曲線フィッティング再訪 1.2.6 ベイズ曲線フィッティング のところを実装してみます。前回は、最小二乗法で曲線フィッティングをしたけど、ベイズ的な方法で解こうって話のようです。この2つの節では、 最尤推定 最大事後確率(MAP)推定 ベイズ推定 という3つのパラメータ推定方法が曲線フィッティングという具体例で説明されてます。他の教科書では抽象的に定式化されていて違いがよくわからなかったけど、この章では曲線フィッティングという具体例に基づいて説明されているのでわかりやすいと感じました。 最尤推定 まず、最尤推定のプログラムです。実は、最尤推定で対数尤度(1.62)を最大化することは、最小二乗法の二乗和誤差関数E(w)の最小化と等価なのでwの求め方は最小二乗法(2010/3/27)とまったく同じです。 最尤推定では、目標値tの予測分布を求めるためもう1個予測分布の精度パラメータ(

        最尤推定、MAP推定、ベイズ推定 - 人工知能に関する断創録
      • 最尤推定 - Wikipedia

        最尤推定(さいゆうすいてい、英: maximum likelihood estimationという)や最尤法(さいゆうほう、英: method of maximum likelihood)とは、統計学において、与えられたデータからそれが従う確率分布の母数を点推定する方法である。 この方法はロナルド・フィッシャーが1912年から1922年にかけて開発した。 観測されたデータからそれを生んだ母集団を説明しようとする際に広く用いられる。生物学では塩基やアミノ酸配列のような分子データの置換に関する確率モデルに基づいて系統樹を作成する際に、一番尤もらしくデータを説明する樹形を選択するための有力な方法としても利用される。機械学習ではニューラルネットワーク(特に生成モデル)を学習する際に最尤推定(負の対数尤度最小化として定式化)が用いられる。 基本的理論[編集] 最尤推定が解く基本的な問題は「パラメータ

        • ようやく分かった!最尤推定とベイズ推定

          ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...西岡 賢一郎

            ようやく分かった!最尤推定とベイズ推定
          • ロジスティック回帰の最尤推定量にはバイアスがある - ほくそ笑む

            ロジスティック回帰について調べている。 ロジスティック回帰モデルのパラメータの最尤推定量は、不偏推定量ではなく、バイアスがある。 例として、サンプルサイズ 、入力変数の数 のときを考える。 パラメータ 300個の真の値を、最初の 100個は 、次の 100個は 、残りの 100個は に設定して推定してみよう。 n <- 1500 p <- 300 # データの生成 set.seed(314) x <- rnorm(n * p, mean = 0, sd = sqrt(1/n)) X <- matrix(x, nrow = n, ncol = p) beta <- matrix(c(rep(10, p/3), rep(-10, p/3), rep(0, p/3))) logistic <- function(t) 1 / (1 + exp(-t)) prob <- logistic(X %*

              ロジスティック回帰の最尤推定量にはバイアスがある - ほくそ笑む
            • 尤度と最尤推定法について | Sunny side up!

              最近はstanでMCMCするのが楽しいわけですが,僕のごくごく近い範囲の人間から「そもそも尤度ってなんだ」という話があったので,今回は尤度や最尤推定法について書きます。 統計モデリングは確率分布を扱う 何を今更,と思うかもしれませんが,統計モデリングと確率分布は切っても切れない関係にあります。今回は二項分布について話をします。次回はたぶん正規分布について書きます。 さて,二項分布とは,成功と失敗といった2値で表現される結果がでる試行をN回繰り返したとき,成功する回数について表される確率分布です。詳しくはWikipediaを見てください。 二項分布は試行回数と成功確率が決まれば分布の形が決まります。ここで,Rを使って分布を直感的に理解してみましょう。 ここでは試行回数は10回で,成功率は0.5としましょう。バスケットボールのシュートが入るかどうかとか,バッティング練習でヒットになるかどうかと

              • 人工知能学会の表紙の件について最尤推定とMAP推定したらがっかりした - @yamitzky エンジニアブログ

                2013-12-28 人工知能学会の表紙の件について最尤推定とMAP推定したらがっかりした 本当にがっかりしたのが、「女性蔑視だ」って騒いでいる人たちは、「性の役割から自由であること」に関して、全く興味がないんだろうなあ、と思ってしまったこと。 人工知能学会の表紙は女性蔑視? - Togetterまとめ 人工知能学会誌の表紙、女性イラストレーターが描いていた 学会誌名の変更と新しい表紙デザインのお知らせ | 人工知能学会 (The Japanese Society for Artificial Intelligence)より 私自身は「男性らしさ、女性らしさ」みたいなものがあまり好きではなく、「○性はこういう職業に就くべき」とか「男性だから出世する」とかが好きではない。もっと言うと「女性の管理職が少ないから登用しよう」というのも好きではない(「性別に一切関係なく管理職は登用されるべきだ」と

                • ベイズ推定と最尤推定の違い

                  事後確率: ある事象Dが発生した場合、仮説Hiが正しい確率。条件付き確率で、P(Hi | D)と書きます。

                  • 機械学習でパラメータ推定 - 最尤推定法 - · けんごのお屋敷

                    最尤推定法 (Maximum Likelyhood や Maximum Likelyhood Estimation と言われ、それぞれ頭文字を取って ML や MLE などとも言われる) は機械学習やコンピュータービジョンなどの分野で良く使われる推定法で、次のような条件付き同時確率を最大化することでパラメータの推定を行います。 $$ \hat{\theta} = \mathop{\mathrm{argmax}}\limits_{\theta} \mathrm{P}(x_1, x_2, \cdots, x_N|\theta) $$ これだけ見て「うん、アレね」と理解できる人はこの記事の対象読者ではなさそうですので、逆にいろいろ教えて下さい。この記事では理論の面から最尤推定法にアタックしてみます。数式成分が多めで、うっとなることもあるかもしれませんが、ゆっくり読んでいきましょう。 ※この記事を

                    • TensorFlow Probabilityでガウシアンプロセス回帰の最尤推定を実行してみる - HELLO CYBERNETICS

                      はじめに ガウシアンプロセスで最低限知ってほしいこと 線形回帰 ガウシアンプロセス回帰 ガウシアンプロセス回帰のまとめ ガウシアンプロセス回帰の推定 まとめ 1.ガウシアンプロセスのモデル 2.推定するべきガウシアンプロセスのパラメータ 3.カーネル関数でガウシアンプロセスのパラメータを書き換える 4.推定すべきパラメータをすり替える 補足 TensorFlow Probabilityで実践 必要なライブラリのインポート でたらめなガウシアンプロセス回帰 データの準備 パラメータをフィッティングしていないガウシアンプロセス回帰のサンプリング 学習したガウシアンプロセス回帰 データ点準備 ガウシアンプロセスのモデル構築 損失関数の設定 ガウシアンプロセス回帰のサンプラー いざ学習! 更に進むために はじめに TensorFlow Probabilityには様々な確率分布が実装されています。

                        TensorFlow Probabilityでガウシアンプロセス回帰の最尤推定を実行してみる - HELLO CYBERNETICS
                      • 【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid

                        本記事の内容は新ブログに移行されました。 新しい記事へ こちらのブログにコメントをいただいても ご返信が遅れてしまう場合がございます。 予めご了承ください。 ご質問やフィードバックは 上記サイトへお願い致します。 今回は,確率モデルの潜在変数・パラメータの事後分布を求めるための繰り返し近似法である変分ベイズ法(Variational Bayesian methods)の解説とPythonで実装する方法をお伝えしていこうと思います。 本記事はpython実践講座シリーズの内容になります。その他の記事は,こちらの「Python入門講座/実践講座まとめ」をご覧ください。また,本記事の実装はPRML「パターン認識と機械学習<第10章>」に基づいています。演習問題は当サイトにて簡単に解答を載せていますので,参考にしていただければと思います。 【目次ページ】PRML演習問題解答を全力で分かりやすく解説

                          【これなら分かる!】変分ベイズ詳解&Python実装。最尤推定/MAP推定との比較まで。Beginaid
                        • 生態学データ解析 - 最尤推定法とは

                          最尤推定 (さいゆうすいてい): 「最ももっともらしい」パラメーターの推定 「尤」の音読みは「ゆう」,訓読みは「もっともらしい (尤もらしい)」です. 尤度とは,ある確率論的モデルを仮定しているときに,その観測データが得られる確率 (あるいは確率密度) 簡単には,ある観測データに (あるパラメーターのもとで) 確率論的モデルが「どれぐらいあてはまっているか」を確率で表す尺度です 最尤推定とは,尤度を「手持ちの観測データのもとで,あるパラメーター値が得られる確率」とみなして (つまり尤度が未知パラメーターの関数とみなして),尤度を最大化するようなパラメーター値を探索する推定方法です 最尤推定法を使う手順は 尤度方程式を作る: 確率論的モデルを作り (データがどういう確率分布に従うか,確率分布のパラメーターの関数型はどうなってるか),それを数式として定義する……これが尤度方程式である 尤度最大

                          • 多項分布の最尤推定とMAP推定 - シリコンの谷のゾンビ

                            @nokunoさんが多項分布の最尤推定の導出をブログに書いてらしたのを読んで,そういえば以前,多項分布の最尤推定とMAP推定を導出したことを思い出した.せっかくなのでブログに書いておく. 多項分布の最尤推定とMAP推定 (PDF) 実はこれ,ブッチャー本を読んでいてLaplaceスムージングなるものが出てきた後に,これを一般化するとDirichletスムージングという形になるよー,という流れで出てきた.Dirichletスムージングはその名のとおり,Dirichlet分布を事前分布とする多項分布のMAP推定なんだけれど,意外とそのことを丁寧に説明している書籍は少ない (導出過程まで書いてある文献を知らない).というわけで,ちょっとした頭の体操として導出をやってみた,というのが3ヶ月前.今読み返すと,まったく覚えてないから人間で不思議. 多項分布は,出現確率がp_kであるようなK種類の事象が

                              多項分布の最尤推定とMAP推定 - シリコンの谷のゾンビ
                            • DO++: AND検索の最尤推定

                              検索技術においてAND検索、つまり二つの単語を指定して、それが両方出現している文書数の推定を高速に行うのは難しい問題です。 問題を正しく書くと単語w_xが出ている文書番号(x1,x2,x3,..,xn)とw_yが出ている文書番号(y1,y2,y3,...,ym)が与えられたら | {(i,j)|x_i = y_j} | の数を求める問題です。 これは前もって全通り求めて保存しておくにも単語種類数の二乗のオーダー分必要なのでできません。 これは機械学習でも特徴関数が0/1の値しかとらないとき、二つの要素の特徴ベクトルの内積を求める問題と同じで、またデータベースでもJOINの順番を決めるときにでてくる問題です。 普通は全体の文書からサンプルをとって、その中で数えてみて、それを元のサイズにスケールさせることをします。例えば全体文書1億件の中から文書1000件だけとってきて、その中でw_xとw_y

                                DO++: AND検索の最尤推定
                              • 最尤推定はいつなら大丈夫?

                                問い: 混合正規分布や神経回路網などの構造を持つ学習モデルでは 最尤推定は漸近的にも有効性を持たず、非常に大きな汎化誤差や 符号長を持つと聞いたのですが、最尤推定はいつなら大丈夫でしょうか。 答え: パラメータの集合と確率分布の集合が一対一に 対応していて、かつ、フィッシャー情報行列が逆行列を 持つ場合であれば、最尤推定は漸近正規性を持ち、 漸近有効です。このとき、非常に多くのサンプルがあれば、 具体的には、フィッシャー情報行列の最も 小さい固有値までが、はっきりと見えるくらい多くの 学習データがあれば、最尤推定量を使っても安全といえるでしょう。 尤度関数が正規分布で近似できるということが最尤推定量が安全に 使える条件です。次のことに十分に注意してください。「最尤推定が 安全に使えるかどうかは、最尤推定量を計算しただけではわからない」。 以上の条件を満たさない場合には 最尤推定量は統計的推

                                • 尤度関数と最尤推定量(maximum likelihood estimato

                                  尤度関数と最尤推定値 池に何尾魚がいるかを調べるために、ある日100尾を捕獲し目印を付けてから放し、しばらく間をおいてからまた100尾を捕獲してみたところ、その中に先日目印を付けた魚が10尾見つかりました。このデータから池には何尾の魚がいると推定できるでしょうか。この問題を解くには「超幾何分布」を応用するのがよいと思われますが、そのために、この問題を一般化することにします。すなわち のようにしますと、この標本の確率変数の確率は次のような超幾何分布にしたがって のようになります。この式から池の魚の全数を求めたいわけが、確率の値がわからない限り求まりそうにもありません。そこで、ここから推定をしなければなりません。まず、いま現在わかっているだけの状況を考えると の合計の数だけの魚が池には最低限いることになります。したがって、その数は となります。それでは、この魚の数だけ池にいたとすると、確率はど

                                    尤度関数と最尤推定量(maximum likelihood estimato
                                  • イカサマコインの例で最尤推定とベイズ推定の違いを理解してみる - Qiita

                                    はじめに 最近世の中で統計学が流行っています.ITの発展によりデータが容易に得られるようになり,いまや様々な業界のシステムでデータ解析機能の適用を検討しているのではないでしょうか.そうなると,IT技術者は深かれ浅かれデータ解析のプログラムに触る必要も出てくるでしょう.すると当然「推定」というキーワードにぶち当たるわけです.はて,統計的な推定とは如何なものか?と言う疑問が湧くでしょう. そんなわけで,統計学において得られたデータを元にある推定値を得る方法を探してみると,「最尤推定」とか「ベイズ推定」と言う手法は特に目に触れることになると思います. 初学者の小生は,これらの違いについて知りたくて,それっぽいキーワードでWeb検索をしたのですが,門前払いを食らってしまいました.何か,条件付き確率の式がウジュウジャ出てくる説明ばかりではあーりませんか!尤度?事前確率?もうーワケかららない!あー!

                                      イカサマコインの例で最尤推定とベイズ推定の違いを理解してみる - Qiita
                                    • 最尤推定量とは?初めての人にも分かりやすく解説 |AVILEN

                                      最尤推定量は点推定の一種で、重要な役割を果たしています。また、ベイズ推定との関係性においても議論されます。 事前の知識として、統計的推定の点推定という考え方を知っていると、理解しやすくなります。 最尤推定量とは?最尤推定量とは、文字の如く、最も尤もらしい推定量のことです。 最尤推定量の定義最尤推定量の定義は以下のようになります。 パラメータθ\thetaθに従う分布の密度関数をf(x;θ)f(x;\theta)f(x;θ)とする。尤度関数をL(θ;x)=f(x;θ)L(\theta;x)=f(x;\theta)L(θ;x)=f(x;θ)とすると、L(θ;x)L(\theta;x)L(θ;x)を最大にするような推定量θ=θ^\theta=\hat{\theta}θ=θ^をθ\thetaθの最尤推定量という。 コイン投げの例で最尤推定量を考えるでは「尤もらしい」というのはどういう意味なのでしょ

                                      • Pythonで実装しながら緑本を学ぶ (第2章 確率分布と統計モデルの最尤推定) - け日記

                                        データ解析のための統計モデリング入門(通称、緑本)を読み始めました。 述べられている理論を整理しつつ、Rでの実装をPythonに置き換えた際のポイントなども深掘りしていきます。 今回は第2章です。実装は以下で公開しています。 introduction_to_machine_learning_with_python/chapter2.ipynb at master · ohke/introduction_to_machine_learning_with_python · GitHub 2 確率分布と統計モデルの最尤推定 2.1 例題:種子数の統計モデリング 著者・久保氏のサポートサイトから提供されているデータ(架空の植物50個体の種子数)を使って、要約値(最大・最小、標本平均、四分位数など)を表示しています。 私の実装では、UCIで提供されているStudent Performance Dat

                                          Pythonで実装しながら緑本を学ぶ (第2章 確率分布と統計モデルの最尤推定) - け日記
                                        • 最尤推定と EM アルゴリズム - kenta1984の日記

                                          最尤推定と EM アルゴリズムのまとめ。 基本的には、最尤推定の発展バージョンが EM アルゴリズム。 言い換えれば、EM アルゴリズムは最尤推定が基本にあるために、EM アルゴリズムを理解するためには最尤推定を理解することが必須。 最尤推定 最尤という言葉のせいで難しいイメージがあるが、極めて簡単。 表が 0.3 の確率で出るコイン A と表が 0.8 の確率で出るコイン B があるとする。 今、A か B か分からないがどちらかのコインを 3 回続けて投げたら、表、裏、表という順番で出た。 さあ、どっちのコインを投げたでしょう? このときに最尤推定を使えば簡単に分かる。(というか、最尤推定使わなくても感覚で分かるけど…) コイン A を使ったときの確率(=尤度)は、 0.3 × (1−0.3) × 0.3 = 0.063 コイン B を使ったときの確率(=尤度) 0.8 × (1−0.

                                            最尤推定と EM アルゴリズム - kenta1984の日記
                                          • 多項分布の最尤推定 - nokunoの日記

                                            多項分布の最尤推定は確率モデルの基本中の基本であるが,意外と知らない人も多いので説明しておきたい.ここでいう多項分布は離散変数,たとえば単語や商品,ユーザなどの種類を表す変数の分布である.多項分布は頻度の分布を意味する場合もあるが,今回はNLP業界の慣習にならって観測回数が1回の場合を指す.このような変数はカテゴリカル変数などと呼ばれるらしい. 今,確率でi番目の単語が観測されるものとする.確率なので次の制約が成り立つ.この分布の元で単語が回観測されたとする.パラメータの元でこのような観測がされる確率を尤度関数と呼び,その対数は対数尤度関数と呼ばれる.各観測が上記離散確率の独立同分布に従うとすると,対数尤度関数は以下で表される.最尤推定は,観測値が与えられたときにこの対数尤度関数を最大とするようなパラメータを求める推定方法である.離散変数の場合は先ほどの制約を満たす中で上の対数尤度関数を最

                                            • MAP推定は最尤推定と何が違うのか - HELLO CYBERNETICS

                                              最も単純な思想である最小二乗誤差推定があります。 これは多変量解析や機械学習でも最も最初に学ぶであろう内容です。次には過学習を防ぐために正則化を用いることを学ぶかと思います。 これらが、確率論の導入によって最尤推定とMAP推定に含まれることを見ていきます。数式は要点だけを見ていくので、詳しい式変形は追いません。しかしそれでも、近年統計的機械学習(確率論を使う機械学習の方法)が非常に活躍している理由が分かるかと思います。 SVMやニューラルネットなどの決定論的手法も確率的に取り扱えますが、なぜそんな面倒なことをやるのかを納得していただけたらと思います。 決定論的な多項式フィッティングの過学習対策 次数の問題 過学習対策:正則化 確率論的な多項式フィッティングの過学習対策 最尤推定によるフィッティング MAP推定 まとめ 確率論を用いるメリットとは? 決定論的な多項式フィッティングの過学習対策

                                              • 最尤推定、MAP推定、ベイズ推論 - 作って遊ぶ機械学習。

                                                今回は、最尤推定、MAP推定(事後確率最大化推定、正則化)、ベイズ推論*1の関係性を見ていきたいと思います。結論から言うと、最尤推定とMAP推定はベイズ推論の特殊な近似方法であると見ることができます。 [必要な知識] 下記をさらっとだけ確認しておくといいです。 KL divergence 確率の加法定理、乗法定理 \[ \newcommand{\argmax}{\mathop{\rm arg~max}\limits} \newcommand{\argmin}{\mathop{\rm arg~min}\limits} \] $x$を観測データ、$\theta$をパラメータとした確率モデル$p(x, \theta)$に対して、それぞれの推定方法は一般的には下記のように認識されているようです。 ・最尤推定 \[ \theta_{ML} = \argmax_{\theta} \{ p(x|\the

                                                  最尤推定、MAP推定、ベイズ推論 - 作って遊ぶ機械学習。
                                                • pytorchでgmmの最尤推定 - やったことの説明

                                                  はじめに 今まではKerasを使っていたけど、最近になってpytorchを覚えようとしている。 “Define by Run"と"Define and Run"の違いとかはよくわかっていないのでそのへんは適当。 普通にtutorialだけやっていると、 “なんとかネットワークは作れるけど、自分が考えた新しい層を追加できない” ということになりそうだったので、ネットにあまり情報のなかったgmmを勾配法(最尤推定)で解くプログラムを作って、pytorchを理解することにした。 gaussian mixture model 適当にデータを作る %matplotlib inline import pylab as plt import seaborn as sns sns.set_style("white") from scipy.stats import norm import numpy as

                                                    pytorchでgmmの最尤推定 - やったことの説明
                                                  • エントロピー、カルバック・ライブラー情報量、最尤推定法 - 初級Mathマニアの寝言

                                                    前回簡単に説明した大偏差原理をエントロピーの概念を使って詳しく説明するために、今回はエントロピーについて説明します。また、カルバック・ライブラー情報量、最尤推定法などについても説明します。 ●エントロピー 有限個の事象のエントロピーは次のように定義されます。 これは確率変数のエントロピーへ次のように一般化されます。 エントロピーは平均情報量ともみなせます。 ●カルバック・ライブラー情報量(相対エントロピー) データはある確率分布に従う確率変数の実現値であると考えられることが多いです。しかし、その確率分布の形が分からないことがあり、得られたデータから真の確率分布を推定する必要がよくあります。推定した確率分布が真の確率分布にどれくらい近いかを表す尺度として次のカルバック・ライブラー情報量(相対エントロピー)というものがあります。 カルバック・ライブラー情報量の重要な性質として次の非負性がありま

                                                      エントロピー、カルバック・ライブラー情報量、最尤推定法 - 初級Mathマニアの寝言
                                                    • [PDF]欠損データ分析 (missing data analysis)-完全情報最尤推定法と多重代入法-村山航

                                                      • PRML 13章の「HMM の最尤推定」を書き換えてみた - 木曜不足

                                                        @shuyo: 社内PRML読書会。今日はHMMの最尤推定。EMAによる導出部分がムダに天下りすぎる。Mステップの対数同時分布の期待値の計算に必要な事後分布の統計量E[z_nk]をγ_nkとおくと、1-of-Kゆえγ_nk=p(z_nk=1|X)がわかる、って流れの方が自然だと思うんだが。 2011-10-25 19:30:45 via Janetter2 なあんて twitter でつぶやいてみたりしたけれど、言うだけなら誰でもできるので、実際に該当箇所を「自然だと思う流れ」で試しに書き換えてみちゃった。 ターゲットは PRML 下巻 p334 の式 (13.12) から (13.17) の間。ここは 式 (13.12)→式 (13.17)→式 (13.15)&(13.16)→式 (13.13)&(13.14) の順序のほうがわかりやすいと思いこんでいるので、それにあわせて文章を書き換え

                                                          PRML 13章の「HMM の最尤推定」を書き換えてみた - 木曜不足
                                                        • 最尤推定 - 機械学習の「朱鷺の杜Wiki」

                                                          最尤推定 (maximum likelihood estimation; MLE)† 訓練サンプル \(X=\{x_1,x_2,\ldots,x_N\}\) が独立同分布でサンプリングされたとする. このとき,データの発生源の確率分布を,確率モデル \(f(x;\theta)\) が近似するようにパラメータ \(\theta\) を推定する方法. まず次の尤度 (likelihood) (または,尤度関数 (likelihood function)) を考える. \[\mathcal{L}(X;\theta)=\prod_{i=1}^N f(x_i;\theta)\] これは訓練サンプルが生じる確率に相当. 最尤推定 (maximum likelihood estimation; MLE),または最尤法 (maximum likelihood method) とは,この尤度を最大にする,す

                                                          • 「最尤推定量とMAP推定量はどちらが普遍的な概念か」

                                                            ベイズ統計たん @Bayesian_tan ベイジアンの皆さんごきげんよう。とある所で話題になっていたので、「最尤推定量とMAP推定量はどちらが普遍的な概念か」という話をしてみようかと思います。 2015-10-25 07:14:37 ベイズ統計たん @Bayesian_tan 用語のおさらいです。 p(x |θ) というのを確率密度関数、θを未知のパラメータとします。 p(x|θ)にしたがう観測X = {x1, x2, …, xn}が得られた場合、そこからθを推定せよ、という問題を考えるとします。 2015-10-25 07:14:59

                                                              「最尤推定量とMAP推定量はどちらが普遍的な概念か」
                                                            • ベイズ推定、MAP推定、最尤推定

                                                              データXが与えられたとき、その確率変数xの分布P(x|X)を推定する問題を考える。・ベイズ推定 パラメータをΘとし、 P(x|X)=∫P(x,Θ|X)dΘ=∫P(x|Θ,X)P(Θ|X)dΘ=∫P(x|Θ)P(Θ|X)dΘ で推定する。パラメータも確率変数と考えている。 事後確率P(Θ|X)はベイズの定理より P(Θ|X)=P(Θ)P(X|Θ)/∫P(Θ)P(X|Θ)dΘ で得ることができる。 P(Θ)は事前確率、P(X|Θ)は尤度、∫P(Θ)P(X|Θ)dΘ=P(X)はエビデンスと呼ばれる。 ・MAP推定 ベイズ推定ではパラメータに関する積分が必要であり、計算が困難である。 そこで、パラメータ分布P(Θ|X)をモード(最頻値)以外は0であると近似すると、 P(x|X)=∫P(x|Θ)P(Θ|X)dΘ≒P(x|Θmap) となり、積分しなくてもすむ。ここで Θmap=argmaxP(Θ|X

                                                                ベイズ推定、MAP推定、最尤推定
                                                              • 多項プロビットモデルの最尤推定をRで行う方法と数理、気を付けるべき点 - バナナでもわかる話

                                                                今回は多項プロビットモデルです。少々高度な内容になります。 目次 多項プロビットモデル 具体例 数式 与えられているデータ 購買情報を踏まえた尤度 GHKアルゴリズム Rによる多項プロビット回帰 使用するデータ mlogit.data関数 mlogit関数 実行&結果 多項ロジットとの違いは?(IIA特性) IIA仮定が妥当か否かの検定(ハウスマン・マクファーデン検定) 離散選択におけるその他の選択肢 スポンサーリンク 多項プロビットモデル 具体例 皆さんは離散選択モデルというモデルをご存知でしょうか。 主に人間の意思決定をモデル化する際に利用されるモデルです。 例えば、コンビニに行って、何を購入するか決めるとします。 あくまで例ですが仮に「何か甘いものが食べたい」という漠然とした目的をもってコンビニに入った人だと考えましょう。 ここでこの人は普通「甘いものが売られている売り場」へ向かうは

                                                                  多項プロビットモデルの最尤推定をRで行う方法と数理、気を付けるべき点 - バナナでもわかる話
                                                                • R で 状態空間モデル: {dlm} の最尤推定を可視化する - StatsFragments

                                                                  {dlm} において、状態空間モデルが最尤推定される過程がみたい。以下内容の補足的なエントリ。 sinhrks.hatenablog.com 「状態空間時系列分析入門」では 引き続き 第8章 に相当。 状態空間時系列分析入門 作者: J.J.F.コマンダー,S.J.クープマン,Jacques J.F. Commandeur,Sime Jan Koopman,和合肇出版社/メーカー: シーエーピー出版発売日: 2008/09メディア: 単行本購入: 2人 クリック: 4回この商品を含むブログを見る データの準備 データは著者のサポートサイト、An Introduction to State Space Time Series Analysis から入手できる。 library(dlm) # install_github('sinhrks/ggfortify') library(ggforti

                                                                    R で 状態空間モデル: {dlm} の最尤推定を可視化する - StatsFragments
                                                                  • 最尤推定、MAP推定、ベイズ推定の違い - 猫になりたい

                                                                    最尤推定、MAP推定、ベイズ推定の違いについてまとめました。 参考文献 導入 最尤推定(Maximum Likelihood Estimation) MAP推定(最大事後確率推定、Maximum a posteriori) ベイズ推定(Bayesian Estimation) 参考文献 今回の参考文献は以下の4つです 統計的機械学習―生成モデルに基づくパターン認識 (Tokyo Tech Be‐TEXT) 作者: 杉山将出版社/メーカー: オーム社発売日: 2009/09/01メディア: 単行本購入: 3人 クリック: 76回この商品を含むブログ (5件) を見る ノンパラメトリックベイズ 点過程と統計的機械学習の数理 (機械学習プロフェッショナルシリーズ) 作者: 佐藤一誠出版社/メーカー: 講談社発売日: 2016/04/20メディア: 単行本(ソフトカバー)この商品を含むブログを見る

                                                                      最尤推定、MAP推定、ベイズ推定の違い - 猫になりたい
                                                                    • 単語の出現確率の最尤推定|Colorless Green Ideas

                                                                      はじめに 自然言語を扱う際、様々な状況で単語の出現確率を求める必要が出てくる。単語の出現確率を求める単純な方法としては、注目している単語がコーパス中に出てきた回数をコーパスの総語数で割るというものがある。例えば、1万語のコーパスの中で、300回出現した単語は、300/10000 = 0.03、すなわち3%の出現確率であると求めることができる。出現回数をコーパスの総語数で割るというのは、直観には合致している。しかし、直観が常に正しいとは限らない。この出現確率の求め方が本当に良い推定になっているのかを数学的に示すことができればそれに越したことはない。実は、この出現回数をコーパスの総語数で割ることで、出現確率を求めるのは、最尤推定と呼ばれる推定の結果と一致している。このことを示そう。 単語の出現確率を求める必要性 自然言語処理の中で、単語 [1] の出現確率が分かっていると得をする場合は少なくな

                                                                      • PRML 第1章の「最尤推定によるパラメータフィッティング」の解説 - めもめも

                                                                        何の話かというと 「PRML 第1章の多項式フィッティングの例を再現」では、二乗平均平方根誤差を最小にするという条件でフィッティングを行いました。しかしながら、フィッティングを行う条件は他にもいろいろ考えられます。「有用な結果(つまり、未知のデータをよりよく推定する関数)を得るには、どのような条件でフィッティングするのがよいか」という非常に難しい問題があります。 ここでは、「どれがよいか」という評価方法は別にして、数学的に扱いやすい(数学的な性質の分析が行いやすい)フィッティング方法を2つ紹介します。 尤度関数を用いる方法(最尤推定) パラメータの事後確率を求める方法(ベイズ推定) これらは、どちらも「ある確率」を計算してパラメータを決定します。ただし、「ある確率」として何を使用するかが異なります。「どのような確率を使ってどのように推定するのか」も、採用するモデルの一部と考えてください。

                                                                        • 最尤推定からベイズ推定まで - HELLO CYBERNETICS

                                                                          はじめに データと確率分布 データと確率モデル 推定方法 最尤推定法 ベイズ法 はじめに 今回は具体的な手法の詳しい解説やコードなどは一切出てきません。 ある程度の数式(確率分布や微分積分、線形代数)に抵抗の無い方が、最尤推定とベイズ推定はどういうものであるのかを初めて学ぶのに無理の無い内容になっていると思われます。 データと確率分布 まずは基本事項としてデータと確率分布について説明します。 確率論でデータを扱う場合には、データはとある真の確率分布 $\phi(\cdot)$ から生じているものであると考えます。具体的には、今着目しているデータ $x$ は確率変数 $X$ が $\phi(X)$ に従っており、その実現値として $X = x$ と定まったことによって得られていると考えます。このことを $$ x \sim \phi(X) $$ と表現します。更に確率変数が複数あるケースを考え

                                                                            最尤推定からベイズ推定まで - HELLO CYBERNETICS
                                                                          • 基礎からイメージで学ぶ統計学~最尤推定量編~ - バナナでもわかる話

                                                                            前回、一致推定量がどういうものかについて確認しました。 基礎からイメージで学ぶ統計学~一致推定量編~ - バナナでもわかる話 ここで一致推定量の一例として最尤推定量について解説します。 最尤推定量についても色々と面白い性質があるわけですが、初心者向け記事ということで一致性に主眼をおいて、最尤推定量の導出法の説明で終わります。 尤度関数 まず、最尤推定量を導出するために必要な概念として、尤度関数について説明しておきます。 まず、確率変数を、パラメータをとし、の確率密度関数(確率質量関数)をと置くことにします。 普通、この関数はデータを取る前に考えるので、は未知の値、背後に真の値が固定された値として与えられています。 しかし、尤度関数を考える際は見方を逆転させ、を既知、を変数と考えます。 要は、データとしてが与えられた後で、確率密度関数(確率質量関数)の中のを変数とみて、の関数として考えてやろ

                                                                              基礎からイメージで学ぶ統計学~最尤推定量編~ - バナナでもわかる話
                                                                            • ベイズ推定と最尤推定を比較して解説 |AVILEN

                                                                              最尤推定とベイズ論の考え方最尤推定とベイズ推定はよく比較されます。 最尤推定は頻度論に基づいた推定であるのに対し、ベイズ推定はベイズ論に基づいた推定です。 ベイズ論と頻度論の違いについては「ベイズ統計学の考え方〜ベイズ論と頻度論の違い〜」で解説しているので、あわせてご確認ください。 最尤推定とベイズ推定の共通点ベイズ論と頻度論は一見全く違う考え方のように思えますが、非常に重要な関連があります。 これは、ベイズ推定と最尤推定の考え方の基礎部分である「データを固定してパラメータを動かす」という点が一致しているからです。 まず、最尤推定量の定義を確認しましょう。 パラメータθ\thetaθに従う分布の密度関数をf(x;θ)f(x;\theta)f(x;θ)とする。尤度関数をL(θ;x)=f(x;θ)L(\theta;x)=f(x;\theta)L(θ;x)=f(x;θ)とすると、L(θ;x)L(

                                                                              • 生態学データ解析 - 最尤推定法とは

                                                                                内容 FrontPage 統計学授業 生態学会大会 目次リンク 全ペイジ一覧 R の点々など 最新の30件 2008-09-29 例/car.normal() 2008-09-29 18:18:07 2008-09-24 R で JAGS 2008-09-24 14:42:53 ベイズ統計 & MCMC 2008-09-24 14:36:56 本/R Graphics 2008-09-24 13:10:42 2008-09-17 統計学授業 2008-09-17 13:45:22 2008-09-12 統計学授業 2008 2008-09-12 11:15:15 2008-09-08 自由集会つぎは何? 2008-09-08 13:28:20 2008-08-29 FAQ モデル選択 2008-08-29 11:32:15 シンポジウム2006-8 2008-08-29 11:03:34

                                                                                • 欠損データ分析 (missing data analysis) -完全情報最尤推定法と多重代入法- 村山 航∗ 1/16/2011 調査研究,特に縦断調査などを行うときには,欠損値 (missing data, missing value) は頭の痛 い問題である��

                                                                                  欠損データ分析 (missing data analysis) -完全情報最尤推定法と多重代入法- 村山 航∗ 1/16/2011 調査研究,特に縦断調査などを行うときには,欠損値 (missing data, missing value) は頭の痛 い問題である。伝統的に欠損値はリストワイズ法 (list-wise deletion) やペアワイズ法 (pair-wise deletion) などを用いて対処されてきた。また,平均値や回帰による代入法などを用いる場合もあ る。しかし,こうした伝統的な方法は,後述するように,欠損値が完全にランダムに生じるような 状況でない限り,推定値にバイアスが生じることが分かっている。 一方,近年では伝統的な方法に代わる方法として,完全情報最尤推定法 (full information maximum likelihood method, FIML)