並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 10 件 / 10件

新着順 人気順

Lassoの検索結果1 - 10 件 / 10件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

Lassoに関するエントリは10件あります。 機械学習モデルsoftware などが関連タグです。 人気エントリには 『最先端のスパースモデリング~HMLassoとPliable Lasso~』などがあります。
  • 最先端のスパースモデリング~HMLassoとPliable Lasso~

    本連載は「これから機械学習に取り組みたい」「ディープラーニングや機械学習を使った経験がある」といったエンジニアに向けて、データ量が少なくても分析が実現できる「スパースモデリング」という手法を紹介します。 前回はスパースモデリングの画像処理への発展的な応用として、画像の欠損補間、異常検知、超解像の3つを紹介しました。今回はスパースモデリングの最近の学術分野におけるスパースモデリングの発展の様子、最新の手法をご紹介します。 スパースモデリングにおける数理モデル研究の重要性 データが少なく説明責任が求められる状況に力を発揮するスパースモデリングの中には、様々な手法があります。例えば、第2、3回で紹介したLASSOや、第4、5回で紹介した辞書学習などはその中の代表的なものとして知られています。スパースモデリングを扱うエンジニアには、問題の質に応じて、これらの中から最も適切な手法を選択することが求め

      最先端のスパースモデリング~HMLassoとPliable Lasso~
    • スパースモデリングのモデルを評価する~LASSO推定値の評価方法

      LASSO推定値に影響を与えるパラメータ 前回の記事ではスパースモデリングの代表的手法であるLASSOを紹介しました。LASSOとは、以下の式の値を最小化する最適化問題のことを指します。 \(\frac{1}{2}\|\Phi x - y\|^2_2 + \lambda \|x\|_1\) この式における第二項は正則化項、\(\lambda\)が正則化パラメータと呼ばれます。ここで正則化パラメータの大きさというのは、正則化項が及ぼす影響の大きさを表します。前回の記事でLASSOを用いるといくつかの回帰係数がゼロとなり、変数選択を行うことができると説明しましたが、正則化パラメータを変更することで、ゼロと推定される回帰係数の数が変わっていきます。正則化パラメータが大きい時は\(|x\|_1\)を小さくしようとする動きが働きます。つまり、ゼロと推定される回帰係数の数が多くなります。逆に正則化パラ

        スパースモデリングのモデルを評価する~LASSO推定値の評価方法
      • 新しいSNS、続々。元AppleデザイナーによるCaffeine、Facebook傘下のLassoなど | AMP[アンプ] - ビジネスインスピレーションメディア

        あなたはどんなSNSを、どれくらい使っているだろうか? 朝起きて、まずソーシャルメディア巡回という人もいるだろう いちユーザーとしてのSNSは、仲間が集まる店に似ている。 私の行きつけのカフェFacebookは今でも毎日顔を出すけど、最近行っても会える友達がめっきり減っちゃったなあ。 バーInstagramの方がよく行っている友達が多いらしいけど、あそこ友達と話したい人よりイケてるライフスタイルの美女とかおしゃれなタピオカドリンクとかが幅を利かせてるんでしょ? 若い人がよく行くスナチャって店に行ってみたら、楽しい商品が色々あったよ!でも最近すごい人気の中国から来たファストフード店のTiktokは、なんかスゴいことできる人が集まってるみたいで、外からチラ見するのが精いっぱいだなあ。 そういや学生時代によく行っていた居酒屋mixiに15年ぶりに行ってみたら、店内の半分がゲームセンターになっちゃ

          新しいSNS、続々。元AppleデザイナーによるCaffeine、Facebook傘下のLassoなど | AMP[アンプ] - ビジネスインスピレーションメディア
        • Lasso - Window Manager for macOS

          Click and drag - that's all you need to move and resize windows

            Lasso - Window Manager for macOS
          • スパースモデリングはなぜ生まれたか? 代表的なアルゴリズム「LASSO」の登場 - HACARUS INC.

            本連載は「これから機械学習に取り組みたい」「ディープラーニングや機械学習を使った経験がある」といったエンジニアに向けて、データ量が少なくても分析が実現できる「スパースモデリング」という手法を紹介します。今回は、スパースモデリングの歴史を紐解きながら、その代表的なアルゴリズムであるLASSOについて解説します。 スパースモデリングの基本アイデア オッカムの剃刀 2010年代初頭にバズワードにまでなったビッグデータ。今では当時の過熱ぶりはなくなり、ハードウェアやクラウド環境の充実とともに活用が広がっています。ビッグデータには一つの明確に定まった定義はありませんが、RDBMSでは扱いづらくなるほどの大量データであるという量的側面と、データの出処やその種類が多種多様であるという質的側面などが特徴として挙げられます。ビッグデータが手元にあり、解きたいビジネス課題にそのビッグデータを使うのが適当である

              スパースモデリングはなぜ生まれたか? 代表的なアルゴリズム「LASSO」の登場 - HACARUS INC.
            • 特徴量選択アルゴリズム HSIC Lasso とその周辺を調べた - nykergoto’s blog

              先日、特徴量選択についてツイートしたところ Kaggle Master のアライさんに「HSIC Lassoはまさにぴったしなんではないでしょうか?」と教えていただきました。 お、となるとHSICLassoはまさにぴったしなんではないでしょうか?https://t.co/Ezigm9OriK— Hidehisa Arai (@kaggle_araisan) 2021年3月28日 HSIC Lasso は直前にあった統計学勉強会#2でのアライさんの発表資料でも取り上げられていたものです。 統計学勉強会は twitter から眺める程度で見ていたのですがとても盛り上がっていて楽しそうした。次回は是非参加したいと思っています🔥 connpass.com 統計学勉強会#2 from Hidehisa Arai www.slideshare.net 自分がこの分野に疎いのでただ使うだけじゃなくて中

                特徴量選択アルゴリズム HSIC Lasso とその周辺を調べた - nykergoto’s blog
              • 縮小事前分布によるベイズ的変数選択1: Bayesian Lasso - Qiita

                東京大学・株式会社Nopareの菅澤です.今回から縮小事前分布を使ったベイズ的変数選択の方法について,背景の原理やRでの実装について数回に分けて紹介していこうと思います. 今回は正則化法として有名なLassoのベイズ版であるBayesian Lassoについて紹介していきます. 線形回帰モデル 以下のような線形回帰モデルを考えます. $$ y_i=x_{i}^T\beta+\varepsilon_i, \ \ \ \ i=1,\ldots,n. $$ ここで$y_i$は被説明変数,$x_i=(x_{i1},\ldots,x_{ip})^T$は説明変数のベクトル,$\beta=(\beta_1,\ldots,\beta_p)^T$は回帰係数のベクトル,$\varepsilon_i$は誤差項を表します.以下では簡単のために,$\varepsilon_i$は独立かつ$\varepsilon_i\

                  縮小事前分布によるベイズ的変数選択1: Bayesian Lasso - Qiita
                • scikit-learnで求めたLassoの解パスとCVの結果を可視化する | DevelopersIO

                  データアナリティクス事業本部の鈴木です。 Lassoは、例えばscikit-learnを使うと簡単にクロスバリデーション(以降CV)で正則化パラメータとそのときの回帰係数を推定できます。一方で、単にCVで最適なモデルを求めるだけではなく、解パス図を描いて回帰係数の変化を詳しくみたり、CVで求めた値を使ってより簡単なモデルを選択したりしたいと思ったので、scikit-learnの関数を使って試してみました。 Lassoとは Lassoは線形回帰モデルの回帰係数の推定法の一つで、係数の推定時にいくつかの係数を0にすることで変数選択を行える手法です。 以下のように回帰係数のL1ノルムを正則化項として誤差二乗和に付けた関数を、回帰係数について最小化することで回帰係数を推定します。 ただし、L1ノルムは以下です。 例えば2変数の場合、以下の斜線部に誤差二乗和部分(第1項目)の解βLSが入る場合にその

                    scikit-learnで求めたLassoの解パスとCVの結果を可視化する | DevelopersIO
                  • Lasso回帰で選択される変数が実行するたびに変わる話 - と。

                    この記事も! R Advent Calendar 22日目の記事ではありません! 記事は書いてます!読後メモも書いてます!でもしょうがない。問題にぶち当たったので。 どんな問題? Rのglmnet::cv.glmnet()関数で実行するL1正則化回帰(Lasso)において、 set.seed()でシード値を固めても、選択される変数にばらつきが生じる 原因は? Rではset.seed()の効力は同時実行に限られる。 つまりset.seed()とglmnet::cv.glmnet()が同時に実行されるような実装をしないと、 変数選択の結果がぶれます……かなしい…… 結果は? githubにあげました♨ github.com 問題設定 下記のようにダミーデータを作ります。 諸事情で説明変数も目的変数も2値のデータでを設定します。 Lassoの変数選択 Lassoは皆さんご存知の通り、ざっくり言え

                      Lasso回帰で選択される変数が実行するたびに変わる話 - と。
                    • Lasso(ラッソ)回帰・Ridge(リッジ)回帰を線形回帰を比較して実装してみよう!|スタビジ

                      線形回帰・Lasso回帰・Ridge回帰とは 今回比較するのは、通常の線形回帰・Lasso回帰・Ridge回帰です。 簡単に、三つの手法について見ていきましょう! 通常の線形回帰通常の線形回帰は残差\({\bf y}-{\bf X}{\bf \beta}\)が最小になるように\(\beta\)を推定します。 つまり、次の式を最小化するように\(\beta\)を推定します。 \begin{eqnarray*} \|{\bf y}-{\bf X}{\bf \beta}\|_2^2\\ \end{eqnarray*} Ridge回帰 Ridge回帰は正則化手法であり、多重共線性などが起きていて通常の線形回帰ではパラメータが推定できないような場面でも罰則を与えることで推定できるようにしたものです。 次の式を最小化するように\(\beta\)を推定します。 \begin{eqnarray*} \|{

                        Lasso(ラッソ)回帰・Ridge(リッジ)回帰を線形回帰を比較して実装してみよう!|スタビジ
                      1

                      新着記事