タグ

online learningに関するchezouのブックマーク (7)

  • Optimizer : 深層学習における勾配法について - Qiita

    はじめに 深層学習の勾配法には様々な手法が提唱されています。その中で、どの手法を用いるのが適切であるか自分でもあまり理解できていない部分があり、今回は勾配法の中でも実際に深層学習で主に用いられている手法(SGD, Momentum SGD, AdaGrad, RMSprop, AdaDelta, Adam)について、実装することを前提に調べてまとめてみました。実装フレームワークはChainerを想定しています。 SGD SGD(Stochastic Gradient Descent : 確率的勾配降下法)は、Optimizerの中でも初期に提唱された最も基的なアルゴリズムです。重み$\mathbf{w}$の更新は以下のように行っております。このとき、$E$は誤差関数、$\eta$は学習係数を表しています。 \mathbf{w}^{t + 1} \gets \mathbf{w}^{t} -

    Optimizer : 深層学習における勾配法について - Qiita
  • オンライン学習アルゴリズムAROWについて - kivantium活動日記

    以前AROWを使った記事を書きました(Caffeによる特徴抽出+AROWによる分類を試した - kivantium活動日記)が、AROWの内部を全然知らずに使っていたので勉強しました。その記録です。 ここの記述が様々なオンライン学習アルゴリズムの特徴をうまく説明していたので参考にするといいかもしれません。kazoo04.hatenablog.com オンライン機械学習についてはこういうが出ていて評判も良いです。(ここで唐突に貼られるAmazonへのリンク) オンライン機械学習 (機械学習プロフェッショナルシリーズ) 作者: 海野裕也,岡野原大輔,得居誠也,徳永拓之出版社/メーカー: 講談社発売日: 2015/04/08メディア: 単行(ソフトカバー)この商品を含むブログ (3件) を見る オンライン学習アルゴリズムとは SVMなどの機械学習アルゴリズムでは分類を行う前に全ての学習データ

    オンライン学習アルゴリズムAROWについて - kivantium活動日記
  • AdaGradが12倍速くなる魔法

    AdaGradは学習率を自動調整してくれる勾配法の亜種で、いろんな人が絶賛しています。 勾配を足し込む時に、各次元ごとに今までの勾配の2乗和をとっておいて、その平方根で割ってあげるだけと、恐ろしくシンプルです。 Adaptive Subgradient Methods for Online Learning and Stochastic Optimization John Duchi, Elad Hazan, Yoram Singer. JMLR 2011. 丁度、 @echizen_tm さんがブログを書いてました。 AdaGrad+RDAを実装しました。 通常のSGDなどは学習率をだんだん減衰させながら勾配を足していくわけですが、どの様に減衰させるかという問題にいつも頭を悩ませます。 AdaGradでは最初の学習率こそ外から与えますが、減衰のさせ方や減衰率といったハイパーパラメータから

  • Exact Soft Confidence-Weighted Learning (ICML2012) 読んだ - kisa12012の日記

    概要 オンラインでの分類学習の世界では,CWが非常に強力なアルゴリズムとして注目されています.特に,その圧倒的な分類精度及び収束速度は圧巻の一言であり,自然言語処理を中心に様々な分野で応用例や派生アルゴリズムが提案されています*1. 一方で,ノイズデータのが混入していた場合に精度がガタ落ちする性質がCWの重大な欠点として多くの人から指摘されていました.ノイズが予め取り除かれている実験設定ならば良いのですが,ノイズが含まれている可能性の高い実データにはCWは中々不便.この問題を解決するため,ノイズ耐性の強いCW系アルゴリズムの決定版(?)として,SCW (Soft Confidence-Weighted)アルゴリズムがICML2012という会議で提案されました.エントリでは,SCWの紹介を行います. Exact Soft Confidence-Weighted Learning, Wang

    Exact Soft Confidence-Weighted Learning (ICML2012) 読んだ - kisa12012の日記
  • GitHub - echizentm/ConfidenceWeighted: confidence weighted classifier

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - echizentm/ConfidenceWeighted: confidence weighted classifier
  • マルチクラスSCW評価メモ - y_tagの日記

    昨年のICML2012で、オンライン分類器であるSoft Confidence-Weighted Learningが提案された("Exact Soft Confidence-Weighted Learning")。この際に提案されたのは基的な二値分類だったが、今までのオンライン分類器と同じように、マルチクラスへの拡張も可能である。詳しくは以下の記事を参照していただきたい。 Exact Soft Confidence-Weighted Learning (ICML2012) 読んだ - kisa12012の日記 オンライン線形分類器とSCW - Sideswipe そんなマルチクラスSCWをJubatusに実装してみた。コードは"y-tag/jubatus"のscwブランチにある。このブランチは0.4.2のリリース直後をベースとしている。 ただ単純な分類器の追加だけなら話は簡単なのだが、分

    マルチクラスSCW評価メモ - y_tagの日記
  • AROW は CW より幾分マシか - ny23の日記

    今話題?の AROW (Adaptive Regularization Of Weight Vectors) の oll 向けの実装を見かけたので,Confidence-Weighted (CW) が Passive-Aggressive (PA)/LIBLINEAR に比べて全然ダメ (PA/LIBLINEAR: 91%, CW: 88%; Perceptron: 89%) だった例のタスク(学習/テストデータは公開中のコードに同梱してある)で,試してみた.パラメタを調整したが (c=100, 50, 10, 5, 1, 0.5, 0.1, 0.05, 0.01, 0.005, 0.001, 0.0005, I=1, 5, 10, 20, 50, 100),PA/LIBLINEAR -0.5% 程度の精度 (90.4%) しか出なかった.繰り返し回数を10回以下とかで固定すれば,AROW

    AROW は CW より幾分マシか - ny23の日記
  • 1