タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

数学と機械学習に関するanimistのブックマーク (2)

  • 機械学習をゼロから1ヵ月間勉強し続けた結果 - Qiita

    追記 2018年の機械学習勉強法などをまとめました! 2018年版もっとも参考になった機械学習系記事ベスト10 はじめに 2016/12/14 から約1ヵ月間、機械学習の勉強をし続けました。これは会社の自由研究という制度を利用させて頂いて、1ヶ月間は業務から離れて、機械学習の勉強だけをやり続けた記録です。 勉強してきたもののうち教師あり学習までは、Qiita にその記録をまとめましたので過去記事一覧からご覧ください。 過去記事一覧 1日目 とっかかり編 2日目 オンライン講座 3日目 Octave チュートリアル 4日目 機械学習の第一歩、線形回帰から 5日目 線形回帰をOctave で実装する 6日目 Octave によるVectorial implementation 7日目 ロジスティック回帰 (分類問題) その1 8日目 ロジスティック回帰 (分類問題) その2 9日目 オーバーフ

    機械学習をゼロから1ヵ月間勉強し続けた結果 - Qiita
  • 機械学習に必要な最急降下法の実装に必要な知識まとめ - Qiita

    機械学習を1ヵ月で実践レベルにする 13日目 この記事は「機械学習機械学習を1ヵ月で実践レベルにする」シリーズの13日目の記事です。 初日の記事はこちら 機械学習を1ヵ月で実践レベルにする #1 (とっかかり編) その他の記事は、記事の末尾にインデックスをつけています。 それでは題へ。 最急降下法 - Wikipedia 関数(ポテンシャル面)の傾き(一階微分)のみから、関数の最小値を探索する連続最適化問題の勾配法のアルゴリズムの一つ。 機械学習というものが何をするかざっくり説明すると、大抵は目的関数(コスト関数)を定義して、その目的関数が最小になるパラメータを決定するという流れで問題を解決します。その、目的関数を最小化するときにこの最急降下法が活躍します。英語では、Gradient descent といいます。 まず絵で考える 例えば、$ f(x) = (x-3)^2 $ という関

    機械学習に必要な最急降下法の実装に必要な知識まとめ - Qiita
  • 1