並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 18 件 / 18件

新着順 人気順

machineLearningの検索結果1 - 18 件 / 18件

  • r/MachineLearning - AMA Geoffrey Hinton

    2. Are we any closer to understanding biological models of computation? I think the success of deep learning gives a lot of credibility to the idea that we learn multiple layers of distributed representations using stochastic gradient descent. However, I think we are probably a long way from understanding how the brain does this. Evolution must have found an efficient way to adapt features that ar

      r/MachineLearning - AMA Geoffrey Hinton
    • Microsoft PowerPoint - Canon-MachineLearning27-jp.pptx

      Canon 2012年9月13日 トピックモデル概論 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 概要 文書のモデル化は,自然言語処理や 機械学習の分野で盛んに研究されて いる 本講義では,文書のモデル化技術の 発展の経緯を概観する 2 講義の流れ 1. 2. 3. 4. 5. 6. 潜在意味解析(LSA) 多項混合(MM)モデル ポリヤ混合(PM)モデル 確率的潜在意味解析(pLSA)モデル 潜在的ディリクレ配分(LDA)モデル 拡張LDAモデル 3 文書単語行列 :全文書データ(文書数 :文書(長さ ) :単語(語彙数 ) :文書 中の単語 の出現回数を 要素に持つ文書単語行列 (大きさ ,一般にスパース) ) 4 潜在意味解析(LSA) 文書

      • GitHub - vaaaaanquish/Awesome-Rust-MachineLearning: This repository is a list of machine learning libraries written in Rust. It's a compilation of GitHub repositories, blogs, books, movies, discussions, papers, etc. 🦀

        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

          GitHub - vaaaaanquish/Awesome-Rust-MachineLearning: This repository is a list of machine learning libraries written in Rust. It's a compilation of GitHub repositories, blogs, books, movies, discussions, papers, etc. 🦀
        • Microsoft PowerPoint - Canon-MachineLearning22-jp

          Canon 2011年8月3日 クラスタリング(2) 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 概要 前回の講義では,確率モデルに基づくクラスタ リング手法を紹介した これらの手法では,各クラスのパラメトリック モデルをあらかじめ指定しなければならない ため,柔軟性に欠けるという問題があった 本日の講義では,パラメトリックモデルを用い ない柔軟なクラスタリング手法を紹介する 2 クラスタリングの定式化 訓練データ クラスラベル 割り当てる教師なし分類問題 に を 3 似たデータには同じラベルを付与 似ていないデータには異なるラベルを付与 目次 1. 2. 3. 4. 5. 6. カーネルK平均法 スペクトラル・クラスタリング法 平均シフト法 識別的

          • machine_learning_security/Security_and_MachineLearning at master · 13o-bbr-bbq/machine_learning_security · GitHub

              machine_learning_security/Security_and_MachineLearning at master · 13o-bbr-bbq/machine_learning_security · GitHub
            • GitHub - Yagami360/MachineLearning_Exercises_Python_scikit-learn: Python&機械学習ライブラリ scikit-learn の使い方の練習コード集。機械学習の理論解説付き

              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                GitHub - Yagami360/MachineLearning_Exercises_Python_scikit-learn: Python&機械学習ライブラリ scikit-learn の使い方の練習コード集。機械学習の理論解説付き
              • Microsoft PowerPoint - NEC-MachineLearning1-jp.ppt

                NEC 2009年2月26日 機械学習概論(1) 分類問題における能動学習 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 教師付き学習 目的:訓練標本 から,真の関数 の近似関数 を求める 未知のテスト入力 での出力 が 推定できるようになる(汎化能力) 出力 2 入力 汎化誤差 汎化誤差(関数の近さの尺度): 3 : で を予測したときの損失 :テスト入力点が従う確率密度関数 (既知と仮定.能動学習では本質的) 汎化誤差は,テスト誤差の期待値 汎化誤差を最小にする学習結果 求めることが教師付き学習の目的 を 回帰問題と分類問題 回帰問題: 通常は二乗損失を用いる: 4 分類問題: 通常は0/1損失を用いる: 能動学習(実験計画) 教師付

                • Microsoft PowerPoint - Canon-MachineLearning21-jp

                  Canon 2011年5月26日 クラスタリング(1) 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 概要 本講義では,クラスタリングの基礎を説明 した後,確率モデルに基づく様々なクラスタ リング手法を紹介する 2 クラスタリングの定式化 訓練データ クラスラベル 割り当てる教師なし学習問題 に を 3 似たデータには同じラベルを付与 似ていないデータには異なるラベルを付与 目次 1. クラスタリングの基礎 A) B) 4 K平均法 クラスタリング結果の評価 2. 生成モデル推定に基づくクラスタリング 3. クラスラベルの直接推定 4. まとめ クラス内散布和最小化 クラスタリング クラス内散布和の最小化: 5 しかし,この最小化はNP困難

                  • GitHub - MasahiroAraki/MachineLearning: 「フリーソフトではじめる機械学習入門(第2版)」のサポートページ

                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                      GitHub - MasahiroAraki/MachineLearning: 「フリーソフトではじめる機械学習入門(第2版)」のサポートページ
                    • GitHub - dotnet/machinelearning: ML.NET is an open source and cross-platform machine learning framework for .NET.

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

                        GitHub - dotnet/machinelearning: ML.NET is an open source and cross-platform machine learning framework for .NET.
                      • MachineLearning - Kawamura's Wiki!

                        リンク集 ニューラルネットを中心にSOMやRBF,SVM,GA,時系列分析,統計学,画像・音声認識、テキストマイニング,RやWekaなどのルールなど広い分野のリンク集. Machine learning - Wikipedia, the free encyclopedia Wikipedia.org 結構いろいろとある。 Cluster analysis - Wikipedia, the free encyclopedia CRF++: Yet Another CRF toolkit Statistical Data Mining Tutorials These include classification algorithms such as decision trees, neural nets, Bayesian classifiers, Support Vector Machine

                        • Microsoft PowerPoint - NSC-MachineLearning6-jp.ppt

                          新日本製鐵 2010年3月11日 機械学習概論 次元削減(2) 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 次元の呪い 入力の次元が増えると 学習問題は指数的に難しくなる 高次元空間では,通常の幾何学的な直感が 成り立たないことがある. 2 次元削減 もとの高次元データ 3 本質的な情報を保持したまま次元を減らしたい! 次元削減後のデータ(2d) 1~3次元に減らせば,データを可視化できる. 次元削減の基本的な仮定:手持ちの高次元デー タはある意味で冗長である 前回の復習:線形次元削減 (高次元)標本: 埋め込み行列: 埋め込まれた標本 4 線形次元削減法 教師無し次元削減 主成分分析(PCA) 局所性保存射影(LPP) 5 教師付き次元

                          • Microsoft PowerPoint - Canon-MachineLearning14-jp.ppt

                            Canon 2009年11月25日 異常値検出 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 異常値検出 生産ラインの不良品検出 ネットワークシステムへの不正侵入検出 文書集合からの新規トピック発見 2 異常値検出:標本に含まれる異常値を見つける 様々なアプローチ: 教師付き学習に基づくアプローチ 教師無し学習に基づくアプローチ 正常値に基づくアプローチ 教師付き学習アプローチ 過去の正常値と異常値を訓練データにして, 分類器を学習する 例: サポートベクトルマシン(SVM) ロジスティック回帰 決定境界 ブースティング 3 異常値 正常値 教師付き学習アプローチ(続き) 利点: SVMなどの優れた分類器をそのまま利用できる 大規模なデータを処理

                            • Microsoft.AI.MachineLearning 1.17.3

                              This command is intended to be used within the Package Manager Console in Visual Studio, as it uses the NuGet module's version of Install-Package.

                                Microsoft.AI.MachineLearning 1.17.3
                              • machinelearning | Python

                                PyMVPA is a Python package intended to ease statistical learning analyses of large datasets. We...

                                • Microsoft PowerPoint - NSC-MachineLearning5-jp.ppt

                                  新日本製鐵 2010年3月11日 機械学習概論 次元削減(1) 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 復習:統計的パターン認識 パターン 識別関数 y = f ( x) x ∈ Rd {( xi , yi )}in=1 2 カテゴリ y ∈ {1,2,K, m} 3 訓練標本:属するカテゴリが既知のパターン 統計的パターン認識:訓練標本の統計的な 性質を利用して識別関数を学習する ( xi , yi ) i.i.d. p( x, y ) 講義の構成 理想的には事後確率を最大にするカテゴリにパ ターンを分類したい. 事後確率は同時確率に比例する. p( y | x ) ∝ p( x, y ) カテゴリの事後確率 (パターンの識別モデル) デ

                                  • Microsoft PowerPoint - Canon-MachineLearning28-jp.pptx

                                    Canon 2012年11月13日 確率分布間の距離推定 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 概要 確率分布間の距離は,様々なデータ 解析タスクで重要な働きをする基礎 的な概念である 本講義では,機械学習に有用な距離 尺度の定義と推定法を概観すると ともに,その応用例を紹介する 2 距離とは? 距離の公理: 非負性: 非退化性 : 対称性: 三角不等式: 3 以下,確率分布間の距離を考える 講義の流れ 1. 確率分布間の距離 2. 確率分布間の距離の推定(概要) 3. 確率分布間のL2距離の推定 4 カルバック・ライブラー(KL)距離 5 Kullback & Leibler (1951) ☺最尤推定と相性が良い ☺密度比推定により

                                    • Microsoft PowerPoint - Canon-MachineLearning17-jp.ppt

                                      Canon 2010年8月5日 行列の学習 東京工業大学 計算工学専攻 杉山 将 sugi@cs.titech.ac.jp http://sugiyama-www.cs.titech.ac.jp/~sugi/ 概要 2 標準的な機械学習手法では,ベクトルパラメータ を学習する. しかし,問題によっては行列パラメータを学習 したいことがある. 行列をベクトル化してしまうと,行列特有の構造 (例えばランク)が利用できなくなってしまう. 近年,行列パラメータを直接学習する手法が 盛んに研究されている. 本講義では,様々な行列学習法を紹介すると 共に,その利用方法を示す. 講義の構成 1. 導入 A) B) 3 行列学習問題の定義 最小二乗法による行列学習 2. 行列学習の例 3. 行列学習手法 4. 発展的な話題 行列学習問題の定義 学習したい真の行列: と仮定( の時は

                                      1