並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 8 件 / 8件

新着順 人気順

Lassoの検索結果1 - 8 件 / 8件

  • 最先端のスパースモデリング~HMLassoとPliable Lasso~

    本連載は「これから機械学習に取り組みたい」「ディープラーニングや機械学習を使った経験がある」といったエンジニアに向けて、データ量が少なくても分析が実現できる「スパースモデリング」という手法を紹介します。 前回はスパースモデリングの画像処理への発展的な応用として、画像の欠損補間、異常検知、超解像の3つを紹介しました。今回はスパースモデリングの最近の学術分野におけるスパースモデリングの発展の様子、最新の手法をご紹介します。 スパースモデリングにおける数理モデル研究の重要性 データが少なく説明責任が求められる状況に力を発揮するスパースモデリングの中には、様々な手法があります。例えば、第2、3回で紹介したLASSOや、第4、5回で紹介した辞書学習などはその中の代表的なものとして知られています。スパースモデリングを扱うエンジニアには、問題の質に応じて、これらの中から最も適切な手法を選択することが求め

      最先端のスパースモデリング~HMLassoとPliable Lasso~
    • リッジ回帰やラッソ回帰で因果推論できるのか? - Qiita

      はじめに 因果推論を行う手法の1つとして、線形回帰が挙げられます。今回は、その線形回帰の拡張とも言えるリッジ回帰(Ridge回帰)やラッソ回帰(Lasso回帰)を用いて因果効果を推定してみるとどうなるのか、Pythonによるシミュレーションと共にまとめました。内容に誤り等ございましたら、ぜひご指摘いただけますと幸いです。 結論 リッジ回帰やラッソ回帰を用いると、うまく因果効果を推定することができません。 これは、リッジ回帰やラッソ回帰を行うことで、線形回帰(線形回帰モデルをOLS推定)による推定値よりも汎化誤差が小さくなる一方で、不偏性と呼ばれる因果効果をバイアスなく推定するために必要な性質が失われてしまうからです。 通常の線形回帰における最小二乗法(OLS)では、下記の損失関数を最小化するパラメータを求めます。

        リッジ回帰やラッソ回帰で因果推論できるのか? - Qiita
      • 機械学習で「分からん!」となりがちな正則化の図を分かりやすく解説 - Qiita

        正則化、ムズいよ‥ 機械学習で過学習防止に使われる正則化 その例として、よく以下のような図が挙げられているかと思います この図を初めて見た時、少し考えて導き出した結論が以下です 「う~ん‥わからん!」 この図、解説が不十分なことも多く、初見で理解できた人って結構少ないのではないでしょうか‥ 図が理解できない事で正則化やリッジ回帰に苦手意識を持った方も多いかと思います(私もそうでした‥) この現状を打破すべく、図の解釈を自分なりに整理したので、分かりやすさ最優先で解説したいと思います。 正則化は機械学習では避けて通れないテクニックなので、皆さまの理解に少しでも貢献できれば幸いです。 ※注意 本記事は私の独自解釈が多く含まれています。 正確な記事を目指すためにも、「ここが間違っている!」という指摘は気軽に頂ければと思います 正則化とは? 前提知識として、過学習と正則化について解説します 過学習

          機械学習で「分からん!」となりがちな正則化の図を分かりやすく解説 - Qiita
        • スパースモデリングはなぜ生まれたか? 代表的なアルゴリズム「LASSO」の登場 - HACARUS INC.

          本連載は「これから機械学習に取り組みたい」「ディープラーニングや機械学習を使った経験がある」といったエンジニアに向けて、データ量が少なくても分析が実現できる「スパースモデリング」という手法を紹介します。今回は、スパースモデリングの歴史を紐解きながら、その代表的なアルゴリズムであるLASSOについて解説します。 スパースモデリングの基本アイデア オッカムの剃刀 2010年代初頭にバズワードにまでなったビッグデータ。今では当時の過熱ぶりはなくなり、ハードウェアやクラウド環境の充実とともに活用が広がっています。ビッグデータには一つの明確に定まった定義はありませんが、RDBMSでは扱いづらくなるほどの大量データであるという量的側面と、データの出処やその種類が多種多様であるという質的側面などが特徴として挙げられます。ビッグデータが手元にあり、解きたいビジネス課題にそのビッグデータを使うのが適当である

            スパースモデリングはなぜ生まれたか? 代表的なアルゴリズム「LASSO」の登場 - HACARUS INC.
          • 正則化項付き線形回帰は真の偏回帰係数を推定しているのか? - bob3’s blog

            最近、正則化項付き線形回帰についてちょっと調べてます。 それで以下の記事が気になりました。 qiita.com dropout009.hatenablog.com どちらも人工データを用いて、真の偏回帰係数を正則化項付き線形回帰で推定できるか?というシミュレーションをされています。 これは非常に興味深いので自分でもやってみようと思います。 先の記事はどちらもPythonを使われてましたが、私はR言語でやってみます。 試すのは以下の5つの手法です。 線形回帰 Ridge回帰 LASSO回帰 適応的LASSO回帰 Elastic net回帰 確認したいのは真の偏回帰係数に対する推定された偏回帰係数の分布です、 準備 まず下準備として、必要なパッケージの呼び出しと、必要な関数の定義をします。 パッケージの呼び出し。 if (!require("pacman")) {install.package

              正則化項付き線形回帰は真の偏回帰係数を推定しているのか? - bob3’s blog
            • 特徴量選択アルゴリズム HSIC Lasso とその周辺を調べた - nykergoto’s blog

              先日、特徴量選択についてツイートしたところ Kaggle Master のアライさんに「HSIC Lassoはまさにぴったしなんではないでしょうか?」と教えていただきました。 お、となるとHSICLassoはまさにぴったしなんではないでしょうか?https://t.co/Ezigm9OriK— Hidehisa Arai (@kaggle_araisan) 2021年3月28日 HSIC Lasso は直前にあった統計学勉強会#2でのアライさんの発表資料でも取り上げられていたものです。 統計学勉強会は twitter から眺める程度で見ていたのですがとても盛り上がっていて楽しそうした。次回は是非参加したいと思っています🔥 connpass.com 統計学勉強会#2 from Hidehisa Arai www.slideshare.net 自分がこの分野に疎いのでただ使うだけじゃなくて中

                特徴量選択アルゴリズム HSIC Lasso とその周辺を調べた - nykergoto’s blog
              • http://monozukuri.ism.ac.jp/wp/wp-content/uploads/2021/05/20210510_MISeminar_SparsModeling.pdf

                • Rで学ぶ計量経済学と機械学習

                  Rで学ぶ計量経済学と機械学習 Contents Rの基礎 データ整理 test_scores.xlsx データの可視化 回帰分析 計量経済学1:回帰分析とマッチング 計量経済学2:操作変数法 計量経済学3:回帰不連続デザイン(+モンテカルロ・シミュレーション入門) 計量経済学4:固定効果モデル 計量経済学5:差の差(DID)法 機械学習1:線形回帰・ロジスティック回帰 機械学習2:リッジ回帰・Lasso 機械学習3:決定木・アンサンブル学習 機械学習4:ニューラルネットワーク・ディープラーニング・大規模言語モデル Authors 安藤道人(立教大学) 三田匡能(株式会社 GA technologies)

                  1