タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

mathとMachine learningに関するsomemoのブックマーク (2)

  • 機械学習で固有値とか固有ベクトルで詰まった人は「キーポイント線形代数」がオススメ - EchizenBlog-Zwei

    機械学習を学んでいる微分積分や線型代数の知識が必要になることが多い。どちらとも大学で学ぶ数学の基礎なので知っていて当然!・・・というのが理想だけれどなかなかそうはいかない。 特に線型代数で出てくる固有値や固有ベクトルはグラフマイニングや次元圧縮などで頻出する。そこで慌てて線型代数の教科書を開いてみても、どういう意味を持つ値なのかを解説している教科書は意外と少ない。 もうまた固有値かよ!わからないから勘弁してよ!そんなあなたにオススメなのが書「キーポイント線形代数」。 書は大抵の人が線型代数でハマる固有値、固有ベクトルとは何か?を図を用いてものすごく分かりやすく解説している、非常にオススメな入門書。もちろん基礎からバッチリ解説してあるので初心者でも安心して読める。 実のところ某プログラミングのためのなんちゃらより65536倍は分かりやすいと思うよ。

    機械学習で固有値とか固有ベクトルで詰まった人は「キーポイント線形代数」がオススメ - EchizenBlog-Zwei
  • 期待値と条件付確率 - math314のブログ

    前置き これは、Competitive Programming Advent Calendar Div2013, 第 13 日の記事です。 みんな大好き期待値の問題の基礎について確率変数を使わない縛りで書きたいと思います。 1,2は非常に簡単な内容となっているので読み飛ばしても構いません。 1. サイコロの目の期待値 1から6の目が書いてあるサイコロがある。 どの面も出る確率が1/6の時、出る目の期待値Eを求めよ。 出る目と確率はそれぞれ 目 1 2 3 4 5 6 確率 1/6 1/6 1/6 1/6 1/6 1/6 となるので、期待値は \[ (1 + 2 + 3 + 4 + 5 + 6) * \frac{1}{6} = \frac{7}{2} \] となります。答えは \( E = \frac{7}{2} \) これは簡単ですね。 類題 AtCoder Beginner Contes

    期待値と条件付確率 - math314のブログ
  • 1