並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 12 件 / 12件

新着順 人気順

ガウス過程の検索結果1 - 12 件 / 12件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

ガウス過程に関するエントリは12件あります。 機械学習統計論文 などが関連タグです。 人気エントリには 『【超初心者向け】ガウス過程とは?出来る限り分かりやすく簡潔に説明します。Beginaid』などがあります。
  • 【超初心者向け】ガウス過程とは?出来る限り分かりやすく簡潔に説明します。Beginaid

    この記事では,研究のサーベイをまとめていきたいと思います。ただし,全ての論文が網羅されている訳ではありません。また,分かりやすいように多少意訳した部分もあります。ですので,参考程度におさめていただければ幸いです。 間違えている箇所がございましたらご指摘いただけますと助かります。随時更新予定です。他のサーベイまとめ記事はコチラのページをご覧ください。

      【超初心者向け】ガウス過程とは?出来る限り分かりやすく簡潔に説明します。Beginaid
    • Jaxでガウス過程 + NumPyroでハイパーパラメータ推論 - HELLO CYBERNETICS

      モジュール データ ガウス過程 カーネル関数 予測 決め打ちハイパーパラメータでの予測 MCMC でのハイパーパラメータ推論 モデル 事前分布からのサンプリング 事後分布の推論 予測分布 ガウス過程関連の記事 モジュール import jax.numpy as np import jax from jax import random, grad, vmap, jit, lax import matplotlib.pyplot as plt import seaborn as sns import numpyro import numpyro.distributions as dist from numpyro import plate, sample, handlers from numpyro.infer import MCMC, NUTS, SVI, ELBO plt.style.us

        Jaxでガウス過程 + NumPyroでハイパーパラメータ推論 - HELLO CYBERNETICS
      • ガウス過程と機械学習 - Qiita

        本記事は書きかけです。最近は主に Zenn で記事を書いており、本記事の内容の拡大板を書籍として公開しているので続きはそちらをご覧ください。 まえがき この記事は2019年3/11日(日)に大阪大学中之島センターで開講された『機械学習・データ科学スプリングキャンプ初日「ガウス過程と機械学習入門」』の備忘録になります。当日は持橋先生と大羽先生が代わる代わる刺激的な講演をしてくださいました。GPLVMの計算量削減エゲツない。 学生なのでいまTwitterで話題のこちらの書籍1を無料でいただきました。なんと太っ腹。 注意 本記事ではもともと講義で聴講した内容をなるべくそのまま残そうとしましたが、初稿から記事修正までに時間が経ってしまったこと、解説記事では講義と同じテンポでは説明できないことを踏まえて、私なりに再構成しています。 数式の表記は基本的にガウス過程本に倣います。ベクトル${\bf x}

          ガウス過程と機械学習 - Qiita
        • Spike on Twitter: "長い(深層)ニューラルネットが、なぜ構造によらず、ガウス過程と同じ性能を示すのか? 深層学習とガウス過程の、理論的な考察の話。 「論文自体は長いので、要約はこっちのリンクを見てね」という著者の心遣い感謝。 https://t.co/2vy9UUMzjs"

          長い(深層)ニューラルネットが、なぜ構造によらず、ガウス過程と同じ性能を示すのか? 深層学習とガウス過程の、理論的な考察の話。 「論文自体は長いので、要約はこっちのリンクを見てね」という著者の心遣い感謝。 https://t.co/2vy9UUMzjs

            Spike on Twitter: "長い(深層)ニューラルネットが、なぜ構造によらず、ガウス過程と同じ性能を示すのか? 深層学習とガウス過程の、理論的な考察の話。 「論文自体は長いので、要約はこっちのリンクを見てね」という著者の心遣い感謝。 https://t.co/2vy9UUMzjs"
          • matsueushi | ガウス過程の補助変数法をJuliaで実装、回帰結果を比較

            7/5 追記 タイトルが「変数補助法」になっていたのを「補助変数法」に修正 前回書いた 「ガウス過程の補助変数法 (Inducing variable method) を理解する 」の続き。 Julia (v1.0) を使って、前回調べた SoD, SoR, DTC, FITC による回帰の近似結果を実際に確認する。 簡単のため、gp.jl により、 ガウスカーネルのクラス GaussianKernel が定義されていて、 カーネル k に対してカーネル関数 \( k(x, y) \) と相互共分散 \( (k(x_i, y_j))_{i,j}\) がそれぞれ ker(k, x, y) と cov(k, xs, ys) で計算できる と仮定する。ということで、まずはライブラリの読み込み。

            • 『ガウス過程と機械学習』Pythonのnumpyだけで実装するガウス過程回帰 - Qiita

              最近『ガウス過程と機械学習』を読んだので、Pythonで実装してみました。 内容としては、Chapter 3 の「3.4.2 ガウス過程回帰の計算」になります。 シカちゃんが目印。分かりやすくて結構おすすめです。 ガウス過程とはなんぞや? まずはじめにガウス過程を一言で説明すると、 Y=f(X)において 「入力Xが似ていれば出力Yも似ている。」 という性質を数学的に表現するための道具です。 今回はこのガウス過程を用いた回帰分析である「ガウス過程回帰」を実装していきます! ガウス過程回帰までの4ステップ ここでは、以下のようなステップを踏んで解説していきます。 線形回帰 ↓ リッジ回帰 ↓ 線形回帰, リッジ回帰をガウス分布(確率分布)で考える ↓ ガウス過程回帰 上記のステップを踏む理由は2点あります。 第一に、ガウス過程回帰はリッジ回帰を拡張した非線形モデルだからです。 ゆえにガウス過程

                『ガウス過程と機械学習』Pythonのnumpyだけで実装するガウス過程回帰 - Qiita
              • GPyTorchでガウス過程を見てみよう - HELLO CYBERNETICS

                はじめに ガウス過程(GP) GPyTorchを使ったモデリング コード概要 学習コード データとモデルの準備 学習と結果 ハイパーパラメータの振る舞い lengthscale outputscale 最後に はじめに 今回はガウス過程の説明を最低限に行いつつ、GPyTorchを使ってガウス過程をさらっと見てみようという記事です。 関連記事に以下のようなものがあるので参考にしてみてください。 www.hellocybernetics.tech www.hellocybernetics.tech ガウス過程(GP) GPは関数を生成する確率分布(確率過程)であり、平均関数 $m$ と共分散関数 $K$ をパラメータとして関数 $f$ を生成する。 $$ f \sim {\mathcal GP} (m, K) $$ GP回帰では上記で生成された関数を用いて、入力データ $x$ と出力データ $

                  GPyTorchでガウス過程を見てみよう - HELLO CYBERNETICS
                • 誰でも理解できるガウス過程とガウス過程回帰 基礎編 - Qiita

                  はじめに ガウス過程回帰は機械学習領域ではかなりメジャーなので、皆様御存知かと思いますが、 ここで本当に初学者がガウス過程回帰にいきつくような解説と、多次元まで対応したPythonのガウス過程回帰クラスを提示したいと思います。実装については第2回で書きます。 まずは線形回帰モデルを考える まずは泣く子も黙る線形回帰モデルを考えることにします。 $w$はパラメータベクトル、$\phi(x)$は非線形の基底関数です。 $$ y(\boldsymbol{x}, \boldsymbol{w})=\boldsymbol{w}^T\phi(\boldsymbol{x}), $$ これは以前の投稿ベイズ線形クラスのPython実装で紹介したものです。 少し先走って書くと、$w$の事前分布を決めれば、関数$y(w,x)$に対する事前分布が決まり、訓練集合が与えられると$w$の事後分布が決まり、結果として関

                    誰でも理解できるガウス過程とガウス過程回帰 基礎編 - Qiita
                  • ガウス過程と空間データのベイズモデリング - Qiita

                    慶應義塾大学・株式会社Nospareの菅澤です. 今回はガウス過程を用いた空間データの(階層)ベイズモデリングについて紹介します. 空間データの分析 緯度・経度などの位置情報が付随したデータは一般的に空間データと呼ばれます.例えば不動産価格のデータは価格や物件の特徴量に加えて住所の情報から緯度・経度の位置情報を得ることができます. 実は空間データの中にも様々な型のデータがあるのですが,今回は$n$個の地点$s_i \ (i=1,\ldots,n)$において被説明変数$y_i$と説明変数$x_i$が観測されている状況を考えます.例えば不動産の例ですと,$y_i$が不動産価格,$x_i$が不動産の特徴量,$s_i$が物件の緯度・経度に相当します. 基本的な目的は 説明変数$x_i$が被説明変数$y_i$に与える影響を調べる 新しい地点$s_0$において説明変数$x_0$を用いて未観測の$y_0

                      ガウス過程と空間データのベイズモデリング - Qiita
                    • Stanでガウス過程

                      10. オーバーフィッティング • 今回のデータに予測を合わせすぎてしまう – データはサンプリングの変動を必ず含む – たまたま高めだったり低めだったりする – そういう「たまたま」を「真のメカニズム」と判断してし まい、予測してしまうと、外れる • パラメータの複雑さについてのジレンマ – WAICなどの汎化性能を評価する指標も使える – データから直接いい感じに推定したい – →ガウス過程回帰

                        Stanでガウス過程
                      • matsueushi | ガウス過程の補助変数法 (Inducing variable method) を理解する

                        6/27 追記: typo, \( p(\mathbf{y} | \mathbf{f}) \) の誤字を修正, \( q_{\text{FITC}}(\mathbf{f}_* | \mathbf{y}) \) の二番目の等号を修正 (\( \sigma^{-2} \) を削除) 「ガウス過程と機械学習」を読んでいるが、5.2補助変数法のところで、どの部分で近似が行われているのかよく分からなくなってしまった。 そのため、今回は原論文であるQuinonero Candela, J. and Rasmussen, CE.の “A Unifying View of Sparse Approximate Gaussian Process Regression” を読んでスパース近似についてまとめて見ようと思う。ゴールは、The Fully Independent Training Condition

                        • ディリクレ過程とガウス過程で民主主義の発展を分類してみた - Qiita

                          はじめに 時系列データを分類するのは、あらゆる意思決定で価値を発揮する。例えばビジネスの場合、トレンドが似ている地域を識別し、同じグループの地域Aを施策群にして、地域Bを統制群にすれば、施策前に両地域の推移が似ているので、施策後大きな乖離が見られたら施策の効果とみなせ、信憑性の高いTVCMやOOH広告のABテストを実行できる。個人の意思決定の場合(本記事の目的は投資戦略の紹介ではないことを強調したい)、株の推移の時系列をグループ化できれば、資産をいい感じに分散させ、手元の株の株価が同時に下落するリスクを減らすことができるかもしれない。うるさいかもしれないが、本記事の目的は投資戦略の紹介ではないことをもう一回強調する。また、政治学においても、例えば各国の民主主義の発展を分類して可視化すれば、理論の発展や政策提言の質の向上に寄与することも期待される。 ただ、問題として、一般的な分類手法だと、ま

                            ディリクレ過程とガウス過程で民主主義の発展を分類してみた - Qiita
                          1

                          新着記事