サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
GPT-4o
matsueushi.github.io
7/5 追記 タイトルが「変数補助法」になっていたのを「補助変数法」に修正 前回書いた 「ガウス過程の補助変数法 (Inducing variable method) を理解する 」の続き。 Julia (v1.0) を使って、前回調べた SoD, SoR, DTC, FITC による回帰の近似結果を実際に確認する。 簡単のため、gp.jl により、 ガウスカーネルのクラス GaussianKernel が定義されていて、 カーネル k に対してカーネル関数 \( k(x, y) \) と相互共分散 \( (k(x_i, y_j))_{i,j}\) がそれぞれ ker(k, x, y) と cov(k, xs, ys) で計算できる と仮定する。ということで、まずはライブラリの読み込み。
6/27 追記: typo, \( p(\mathbf{y} | \mathbf{f}) \) の誤字を修正, \( q_{\text{FITC}}(\mathbf{f}_* | \mathbf{y}) \) の二番目の等号を修正 (\( \sigma^{-2} \) を削除) 「ガウス過程と機械学習」を読んでいるが、5.2補助変数法のところで、どの部分で近似が行われているのかよく分からなくなってしまった。 そのため、今回は原論文であるQuinonero Candela, J. and Rasmussen, CE.の “A Unifying View of Sparse Approximate Gaussian Process Regression” を読んでスパース近似についてまとめて見ようと思う。ゴールは、The Fully Independent Training Condition
このページを最初にブックマークしてみませんか?
『matsueushi | Home』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く