タグ

Wikipediaと統計に関するomega314のブックマーク (24)

  • Conjugate prior - Wikipedia

    In Bayesian probability theory, if the posterior distribution is in the same probability distribution family as the prior probability distribution , the prior and posterior are then called conjugate distributions, and the prior is called a conjugate prior for the likelihood function . A conjugate prior is an algebraic convenience, giving a closed-form expression for the posterior; otherwise, numer

  • Exponential family - Wikipedia

    A number of common distributions are exponential families, but only when certain parameters are fixed and known. For example: binomial (with fixed number of trials) multinomial (with fixed number of trials) negative binomial (with fixed number of failures) Note that in each case, the parameters which must be fixed are those that set a limit on the range of values that can possibly be observed. Exa

  • Histogram - Wikipedia

    For the histogram used in digital image processing, see Image histogram and Color histogram. A histogram is a visual representation of the distribution of quantitative data. The term was first introduced by Karl Pearson.[1] To construct a histogram, the first step is to "bin" (or "bucket") the range of values— divide the entire range of values into a series of intervals—and then count how many val

    Histogram - Wikipedia
    omega314
    omega314 2018/08/29
    ヒストグラム。
  • カルバック・ライブラー情報量 - Wikipedia

    カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、英: Kullback–Leibler divergence)は2つの確率分布の差異を計る尺度である。 確率論と情報理論で利用され様々な呼び名がある。以下はその一例である: カルバック・ライブラー・ダイバージェンス(KLダイバージェンス) 情報ダイバージェンス(英: information divergence) 情報利得(英: information gain) 相対エントロピー(英: relative entropy) カルバック・ライブラー距離 だたしこの計量は距離の公理を満たさないので、数学的な意味での距離ではない。 応用上は、「真の」確率分布 P とそれ以外の任意の確率分布 Q に対するカルバック・ライブラー情報量が計算される事が多い。たとえば P はデータ、観測値、正確に計算で求められた確率分布などを表し、Q

  • 偏り - Wikipedia

    偏り(かたより)またはバイアス(英: bias)とは、統計学で2つの異なる意味に用いられる。 標の偏りとは、母集団の要素が標として平等に選ばれていないと考えられる場合をいう。 推定量の偏りとは、推定すべき量を何らかの理由で高く、または低く推定しすぎている場合をいう。 偏りという用語は悪い意味に聞こえるが、必ずしもそうではない。偏った標は悪いものだが、偏った推定量のよしあしは状況による。 偏りがないことを不偏(ふへん、英: unbiased)と言う。 標の偏り[編集] 母集団の一部の要素が他よりも標として選ばれやすい場合に、標に偏りがあるという。偏った標は一般に誤った推定量を与える。推定する量が高い、または低いような要素が標に多く含まれていれば結果は当の値とは違ってしまう。 有名な例に1936年のアメリカ大統領選の予想がある。Literary Digest誌は200万人の調

  • 最大エントロピー原理 - Wikipedia

    最大エントロピー原理(さいだいエントロピーげんり、英: principle of maximum entropy)は、認識確率分布を一意に定めるために利用可能な情報を分析する手法である。この原理を最初に提唱したのは Edwin Thompson Jaynes である。彼は1957年に統計力学のギブズ分布を持ち込んだ熱力学(最大エントロピー熱力学(英語版))を提唱した際に、この原理も提唱したものである。彼は、熱力学やエントロピーは、情報理論や推定の汎用ツールの応用例と見るべきだと示唆した。他のベイズ的手法と同様、最大エントロピー原理でも事前確率を明示的に利用する。これは古典的統計学における推定手法の代替である。 概要[編集] 今確率変数 X について、X が条件 I を満たす事だけが分かっており、それ以外に X に関して何1つ知らなかったとする。このとき、X が従う分布はどのようなものである

  • 機械学習 - Wikipedia

    機械学習(きかいがくしゅう、英: machine learning)とは、経験からの学習により自動で改善するコンピューターアルゴリズムもしくはその研究領域で[1][2]、人工知能の一種であるとみなされている。 典型的には「訓練データ」もしくは「学習データ」と呼ばれるデータを使って学習し、学習結果を使って何らかのタスクをこなすものとされる。例えば過去のスパムメールを訓練データとして用いて学習し、スパムフィルタリングというタスクをこなす、といったものである。 定義[編集] 論者により定義が異なるものの、トム・M・ミッチェルによる下記の簡潔な定義は広く引用されている: A computer program is said to learn from experience E with respect to some class of tasks T and performance measure

    機械学習 - Wikipedia
  • 制御理論 - Wikipedia

    制御理論(せいぎょりろん、英:control theory)とは、制御工学の一分野で、数理モデルを対象とした、主に数学を用いた制御に関係する理論である[1]。いずれの理論も「モデル表現方法」「解析手法」「制御系設計手法」を与える。 古典制御論[編集] 古典制御論は、伝達関数と呼ばれる線型の単入出力システムとして表された制御対象を中心に、周波数応答などを評価して望みの挙動を達成する理論である。1950年代に体系化された。代表的な成果物と言えるPID制御は、現在でも産業では主力である(化学プラント等、伝達関数が複雑な生産設備の制御に用いられる)[2][3]。 PID制御[編集] PID制御は、制御工学におけるフィードバック制御の一種であり、 入力値の制御を出力値と目標値との偏差、その積分、および微分の3つの要素によって行う方法のことである。 現代制御論[編集] 現代制御論は、状態方程式と呼ばれ

  • モーメント (数学) - Wikipedia

    この項目では、数学のモーメントについて説明しています。確率論のモーメントについては「モーメント (確率論)」を、物理量のモーメントについては「モーメント」をご覧ください。 数学の確率論および関係した諸分野におけるモーメント (moment) または積率(せきりつ)とは、物理学におけるモーメントを抽象化した概念である。 実変数 x に関する関数 f(x) の n 次モーメント は、 で表される。妥当な仮定の下で高次モーメント全ての値から関数 f(x) は一意に決定される。 は f を密度関数とする測度の重心を表している。 関数 f(x) の c 周りの n 次モーメント は、 で表される。 重心周りのモーメント μn = μ(μ)n を中心モーメントまたは中心化モーメントといい、こちらを単にモーメントということもある。 確率分布のモーメント[編集] 確率密度関数 f(x) のモーメントには、

  • 離散一様分布 - Wikipedia

    離散一様分布(りさんいちようぶんぷ、英: discrete uniform distribution)は、確率論や統計学における離散確率分布の一種であり、有限集合の全ての値について、等しく確からしい場合である。 確率変数が n 個の値 k1, k2, …, kn を同じ確率でとりうるとき、離散一様分布と言える。任意の ki の確率は 1/n である。離散一様分布の単純な例としてサイコロがある。その場合の k がとりうる値は 1, 2, 3, 4, 5, 6 で、1回サイコロを振ったとき、それぞれの値が出る確率は 1/6 である。2個のサイコロを振って和をとると、もはや一様分布ではなくなり、とりうる値(2 から 12)によって確率が変わってくる。 離散一様分布の確率変数がとりうる値が実数の場合、累積分布関数を退化分布を使って表すことができる。すなわち、 ここで、ヘヴィサイドの階段関数 は、x

    離散一様分布 - Wikipedia
  • Central limit theorem - Wikipedia

    In probability theory, the central limit theorem (CLT) states that, under appropriate conditions, the distribution of a normalized version of the sample mean converges to a standard normal distribution. This holds even if the original variables themselves are not normally distributed. There are several versions of the CLT, each applying in the context of different conditions. The theorem is a key

    Central limit theorem - Wikipedia
    omega314
    omega314 2016/07/03
    中心極限定理。
  • ベンフォードの法則 - { 適用と制限 }Wikipedia

    上に示した2つの図は、対数スケールの上にプロットした2つの確率分布である[注 1]。どちらの図でも、赤で示した部分の面積が最初の桁が1である確率に比例しており、青で示した部分の面積が最初の桁が8である確率に比例している。 左側の分布では、赤と青の領域の面積比はおおよそそれぞれの幅の比に等しくなっている。幅の比は普遍的で、ベンフォードの法則によって厳密に与えられる。したがって、こうした確率分布に従う数値はおおむねベンフォードの法則に従う。 一方、右の分布では、赤と青の領域の面積比はその幅の比から大きく外れている。右の図でも幅の比は左側の分布と同じになっている。赤と青の領域の面積比は、その幅よりもむしろ高さの比に依存して決定されている。幅と異なり高さはベンフォードの法則に普遍的な関係を満たさない。代わりにその数値の分布の形によって完全に決定される。したがって、1桁目の数値の分布はベンフォードの

    omega314
    omega314 2016/06/11
    (「ベンフォードの法則」………べんふぉーどのほうそく………覚えましたし)
  • マルコフ連鎖モンテカルロ法 - Wikipedia

    出典は列挙するだけでなく、脚注などを用いてどの記述の情報源であるかを明記してください。記事の信頼性向上にご協力をお願いいたします。(2016年3月) マルコフ連鎖モンテカルロ法(マルコフれんさモンテカルロほう、英: Markov chain Monte Carlo methods、通称MCMC)とは、求める確率分布を均衡分布として持つマルコフ連鎖を作成することによって確率分布のサンプリングを行う種々のアルゴリズムの総称である。具体的には、同時事後分布に従う乱数を継時的に生成する。代表的なMCMCとしてメトロポリス・ヘイスティングス法やギブスサンプリングがある。 MCMCで充分に多くの回数の試行を行った後のマルコフ連鎖の状態は求める目標分布の標として用いられる。試行の回数を増やすとともにサンプルの品質も向上する。 求められる特性を持つマルコフ連鎖を作成することは通常難しくない。問題は許容で

  • Data analysis - Wikipedia

    Data analysis is the process of inspecting, cleansing, transforming, and modeling data with the goal of discovering useful information, informing conclusions, and supporting decision-making.[1] Data analysis has multiple facets and approaches, encompassing diverse techniques under a variety of names, and is used in different business, science, and social science domains.[2] In today's business wor

    Data analysis - Wikipedia
  • 特異日 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "特異日" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2016年2月) 特異日(とくいび)とは、その前後の日と比べて偶然とは思われない程の高い確率で、特定の気象状態(天気、気温、日照時間など)が現れる日のこと[1][2]。特異日は世界的に認められた概念であり、英語では「シンギュラリティ(singularity)」と呼ばれる。 転じて気候以外にも、何らかの政治事件が集中して起こる日を指すこともある。 概説[編集] 特異日に関する研究は1920年代にドイツの気象学者アウグスト・シュマウス(ドイツ語版)によって行われた[2]。シュマウスは特

  • 確率分布 - Wikipedia

    この場合の確率を全て表すには、全ての連続区間での確率を求めることになる。次の電話が a - b 時間後になる確率は次の式で表せる: 累積分布関数 FX を で定めれば、 のように、一変数関数で分布を表現できるので便利である。さらに、FX の導関数 fX は確率密度関数と呼ばれ、確率は積分を用いて と書ける。 通常、連続値をとる確率変数の分布は確率密度関数を用いて記述される。なぜなら、確率密度関数は初等関数で書けるが、累積分布関数は書けない場合が多いからである。 公理主義的な確率論においては、d次元ベクトル値確率変数の確率分布とは、その確率変数の引き起こす像測度のことである。この測度は d次元ユークリッド空間上の確率測度であり、ユークリッド空間の部分集合に対して、確率変数の値がその集合に入る確率を与える関数となる。 単に確率分布というときは、d次元ユークリッド空間などのよく使われる可測空間上

  • 保険 - Wikipedia

    この記事は特に記述がない限り、日国内の法令について解説しています。また最新の法令改正を反映していない場合があります。ご自身が現実に遭遇した事件については法律関連の専門家にご相談ください。免責事項もお読みください。 保険(ほけん)は、偶然に発生する事故(保険事故)によって生じる財産上の損失に備えて、多数の者が金銭(保険料)を出し合い、その資金によって事故が発生した者に金銭(保険金)を給付するための制度。 概要[編集] 保険は、多数の者が保険料を出し合い、保険事故が発生したときには、生じた損害を埋め合わせるため、保険金を給付する制度である。保険の対象とされる保険事故には、交通事故・海難事故・火災・地震・死亡など様々な事象があり、人間生活の安定を崩す事件・事故・災害などの危険に対処する。 保険関係の設定を目的とする契約を保険契約といい、保険契約の当事者として、保険料の支払義務を負う者を保険契約

  • 相関係数 - Wikipedia

    散布図とその相関係数の一覧。相関は非線形性および直線関係の向きを反映するが(上段)、その関係の傾きや(中段)、非直線関係の多くの面も反映しない(下段)。中央の図の傾きは0であるが、この場合はYの分散が0であるため相関係数は定義されない。 相関係数(そうかんけいすう、英: correlation coefficient)とは、2つのデータまたは確率変数の間にある線形な関係の強弱を測る指標である[1][2]。相関係数は無次元量で、−1以上1以下の実数に値をとる。相関係数が正のとき確率変数には正の相関が、負のとき確率変数には負の相関があるという。また相関係数が0のとき確率変数は無相関であるという[3][4]。 たとえば、先進諸国の失業率と実質経済成長率は強い負の相関関係にあり、相関係数を求めれば−1に近い数字になる。 相関係数が ±1 に値をとることは、2つのデータ(確率変数)が線形の関係にある

    相関係数 - Wikipedia
  • マハラノビス距離 - Wikipedia

    マハラノビス距離(マハラノビスきょり、英語: Mahalanobis' distance)とは、統計学で用いられる一種の距離である。「普通の距離を一般化したもの」という意味でマハラノビス汎距離(マハラノビスはんきょり)ともいう。プラサンタ・チャンドラ・マハラノビスにより1936年導入された[1]。 概要[編集] 特徴[編集] 多変数間の相関に基づくものであり、多変量解析に用いられる。新たな標につき、類似性によって既知の標との関係を明らかにするのに有用である。データの相関を考慮し、また尺度水準によらないという点で、ユークリッド空間で定義される普通のユークリッド距離とは異なる。 定義[編集] ある集団内の点が多変数ベクトル で表されるとき、その集団の変数ごとの平均値を縦ベクトルで と表し、集団の共分散行列(各変数間の共分散を配列した行列)を とすれば、ある点 からの集団へのマハラノビス距離

  • 平均 - Wikipedia

    平均(へいきん、英: mean, average, 独: Mittelwert, 仏: moyenne)または平均値(へいきんち、英: mean value, average value)とは、数学・統計学において、数の集合やデータの中間的な値を指す。欧米語の原意の中間(値)などと和訳することは少ない。 狭い意味での中間値にとどまらず、算術平均(相加平均)・幾何平均(相乗平均)・調和平均・対数平均など様々な種類で用いられる。一般的には特に算術平均を指し、集合の要素の総和を要素数で割ったものである[1][2]。 算術平均を用いる際の注意[編集] 科学観測や社会調査から得られるデータでは、算術平均を代表値の一つとして用いる。算術平均が中央値、最頻値、中点値と比べてデータの特徴をよく表すものかどうかを検討する必要がある。正規分布に近い場合は算術平均と標準偏差を用いることは適切だが、そうでない分布

    omega314
    omega314 2013/04/08
    平らに均す。