タグ

ブックマーク / convexbrain.sourceforge.jp (2)

  • Intelligence Architecture けんきうノート - EMアルゴリズム

    たとえば、複数の信号源があって、そこから毎回確率的にどれかの信号源が選ばれて発生されるデータを観測することを考えます。 ただし観測されたデータは、どの信号源から発生されたかはわからないとします。 また、データにはノイズがのっているなど、各々の信号源も確率的な挙動を示すことにしましょう。 このとき、観測できるデータだけから、確率モデルでモデル化した信号源(と信号源の混ざり具合)のパラメータ同定を行う手法として、以下で説明するEMアルゴリズムを利用することが出来ます。 観測データを \(X\) 、観測できないデータは特に隠れ変数と言い、\(Y\) とします。 どちらも確率変数です。 \(Y\) は上の例で言えば信号源のインデックス(どの信号源が選ばれたか)になります。 観測データと隠れ変数を合わせた \(Z=(X,Y)\) を完全データと言い、システムの全ての確率変数となります。 また便宜

  • Intelligence Architecture けんきうノート - ソフトマージンSVM

    ハードマージンSVMでは、データがきれいに分割されている場合しか考えていませんでしたが、実際の問題では、ノイズがあったりでデータの分布がオーバーラップしていることも往々にしてあります。 この場合、正確な分離面を構築するのが無理だったり、できたとしても無意味に複雑な分離面になってしまう可能性があります。 そこでソフトマージンSVMでは、ハードマージンの制約を緩めて、マージン(分離面に一番近いデータ点と分離面との距離)を最大にしなかったり、分離に失敗するデータ点があったりすることを許します。 個々のデータ点に対し「ハードマージン制約の緩まり具合」を表すなんらかの変数を \(\xi_i\) (スラック変数と呼ばれる)として、 \(\frac12w^2\) の最小化(マージン最大化)と一緒に最小化することを考えます。 ここで、「最小化の際に \(\xi\) をどのくらい大きいまま残していいか」

    gologo13
    gologo13 2010/07/13
  • 1