2024年度統計関連学会連合大会 2024年9月1日(日)~5日(木)東京理科大学(神楽坂キャンパス) 第二報(2024.3.2)を掲載しました。
この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "実証研究" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2023年3月) 実証研究(じっしょうけんきゅう、英語:empirical research)は、直接的な観察や経験によって知識を得る方法である。 概要[編集] 経験的証拠[注 1]は、質的、量的に分析され得る。証拠の定量化や、質的にその筋を通すことで、研究者は経験的な質問に答えることができる。通常はデータと呼ばれる証拠を集め、明確に定義や回答を行う。研究計画は、分野や調査される疑問によって異なるが、多くの研究者は、社会科学や教育の研究室で研究出来ない問いかけに対し、より良い答えを
統計的因果推論(とうけいてきいんがすいろん、英: Causal inference in statistics)とは、実験データや観察データから得られた不完全な情報をもとに、事象の因果効果を統計的に推定していくことである[1]。20世紀後半から、ジューディア・パールや、ドナルド・ルービンらによって発展を遂げた。なお、「因果推論(Causal inference)」とのみ言う場合は、統計学に限らず哲学などを含めた、より広範な領域の議論を含むが、統計学、データサイエンス、経済学に関連する文脈で「因果推論」と言われる場合、しばしば「統計的因果推論」の手法に関わるものを指していることが多い。 手法[編集] 統計的因果推論のより具体的な手法としては、次のようなものが含まれる。[2] 実験計画法[編集] ランダム化比較試験(RCT:randomized controlled trial): RCTは、
説明可能なAI[1](せつめいかのうなエーアイ、英語: Explainable artificial intelligence、略称XAI)またはAIを説明するための技術[2]は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である[3]。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的のために研究・提案されている技術の総称である[4]。XAIという用語は2017年4月から始まったアメリカ合衆国DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した[1]。 背景[編集] 2010年代初頭の第三次AIブーム到来によりAIの利活用領域は多方面に広がり、自動運転車や病気診断など、影響の大きな、高い信頼性が求められる分野での利用も視野に入れられるようになってきた[5]。一般的なソフトウェアと異なり、機械学習により
統計モデル(とうけいモデル、statistical model)は、標本データ(およびより大きな統計的母集団からの類似データ)の生成に関する一連の統計的仮定を具体化した数理モデルである。統計モデルは、データの生成過程をかなり理想化して表現していることが多い[1]。 統計モデルは通常、1つまたは複数の確率変数と他の非確率変数との間の数学的関係として規定される。統計モデルは「理論の形式的表現」(Herman AdèrによるKenneth Bollenの引用)である[2]。 すべての統計的仮説検定とすべての統計的推定量は、統計モデルを介して導出される。より一般的には、統計モデルは統計的推論の基礎の一部である。 導入[編集] 簡単にいうと、統計モデルとは「ある事象の確率を計算できる」という特別な特徴をもつ統計的仮定(英語版)(または統計的仮定の集合)と考えることができる。例として、2つの普通のサイ
線形モデル(linear model)は、実用的に広く用いられており、入力特徴量の線形関数(linear function)を用いて予測を行うものです。 まず、説明に入る前に言葉の定義から紹介します。 線形回帰 データがn個あるとした時にデータの傾向をうまく表現することができるy=w_0×x_0+....+w_n×x_n というモデルを探し出すこと 正則化 過学習を防いで汎化性を高めるための技術で、モデルに正則化項というものを加え、モデルの形が複雑になりすぎないように調整している (モデルの係数の絶対値または二乗値が大きくなってしまうと、訓練データのモデルに適合しすぎて、テストデータのモデルの当てはまりが悪くなる過学習という現象が起こるので、過学習を避けるために正則化項をつけている) 重み 説明変数(求めたいものに作用する変数)が目的変数に与える影響度合いを表現したものです。例えば上の線
はじめに 前回の記事で重回帰分析の導入をしてみたので、今回はその続きということで、2つ同時にやってみたいと思います。 ベクトルの微分公式については下記のブログが参考になります。 もしこの記事がお役に立てた時はQiitaのイイねボタンを押していただけると励みになります。 参考記事 「ベクトルで微分・行列で微分」公式まとめ 重回帰分析 リッジ回帰について考える際に、重回帰分析の理解はマストになるのでここでも見ていこうと思います。式変形については、前回の記事で詳しく導入したので少しだけ端折っていきます。 準備 説明変数$x_1, x_2, x_3, \cdots, x_m$を$\boldsymbol{x}$($x$のベクトル)とする 予測値を$\hat{y}$とする($\hat{y}$はスカラー) 回帰係数を$w_1, w_2, w_3, \cdots, w_m$を$\boldsymbol{w}
リッジ回帰(リッジかいき、Ridge regression)は、独立変数が強く相関している場合に、重回帰モデルの係数を推定する方法[1]。計量経済学、化学、工学などの分野で使用されている[2]。 この理論は、1970年に Hoerl と ケナード が Technometrics の論文「RIDGE regressions: biased estimation of nonorthogonal problems」と「RIDGE regressions: applications in nonorthogonal problems」で初めて紹介した[3][4][1]。これは、リッジ分析の分野における 10 年間の研究の結果だった[5]。 リッジ回帰は、線形回帰モデルに多重共線性がある(強く相関する独立変数がある)場合に最小二乗推定量が不正確になることを解決するために開発された。リッジ回帰推定量
離散確率分布は、確率質量がはたらく点に丸を付け、支柱を付けて表す。 確率質量関数(かくりつしつりょうかんすう、英: probability mass function, PMF)とは、確率論および統計学において、離散型確率変数にその値をとる確率を対応させる関数のことである[1](単に確率関数ということもある)。 確率質量関数の定義域は離散的であるスカラー変数や確率変数ベクトル(英語版)などの確率要素であることもある。 離散型確率変数の場合は連続型確率変数の場合と異なり、事象の確率は高々可算個の確率質量の和で表される[2]。 定義[編集] 偏りのないサイコロの確率質量関数。等確率空間における確率分布は離散一様分布になる。 X : S → A (A ⊆ R) を標本空間 S に定義される離散型確率変数とすると、X に対する確率質量関数 fX : A → [0, 1] は次の式で定義される[3]
この記事は、 NTT Communications Advent Calendar 2022 24日目の記事です。 はじめに イノベーションセンターの木村と申します。初めてのアドベントカレンダー&Engineers’blog投稿です。普段の業務は、機械学習をもちいた時系列データ分析の研究開発やお客様データ分析案件支援を主として行っています。プライベートでは自転車にお熱でZwiftでバーチャルライドをしたり、最近ではテクニック向上のためバニーホップの練習に励んでいます(なかなか上達しません…)。 今日はクリスマスイブということで、時系列データ分析コンテンツ「ごちきか」 をプレゼント(?)します!年末休みのお供にぜひご照覧ください。 サマリー 時系列データ分析コンテンツ「ごちきか」を公開しました (余談として)基盤やデプロイ方法を紹介します What is 「ごちきか」? 私たちのチームでは、
■ 本講座の位置づけ 何らかの事業を起こすにしろ、会社に入るにしろここから先の時代においてデータドリブンな分析力、問題解決力、データ利活用に対する皮膚感覚的な理解は不可欠である。 本講座は、高校1-2年程度の数学の知識、スキル、Excelで基本的なことができる程度の素養はあるが、データ分析、データの利活用についてさして経験のあるわけではない人に対して、データの大切さと力、分析の楽しさを実感してもらうことを通じ、現代社会を生き抜くため最低限、基礎となるデータリテラシー、データで考える力を身につけてもらうことを目指す。 ■ 身につけてもらうことを目指す技能 - データ社会に対するパースペクティブ - 各種関連バズワードの適切な理解 - データの意味合いを理解するための基礎となる力 - データに騙されないようになるための基礎となる力 - 数字のハンドリング力、数量的分析力 - 基本的な問題解決能
実験計画法(じっけんけいかくほう、英: Experimental design、Design of experiments)は、効率のよい実験方法を設計(デザイン)し、結果を適切に解析することを目的とする統計学の応用分野である。R・A・フィッシャーが1920年代に農学試験から着想して発展させた。特に1950年G・M・コックスとW・G・コクランが標準的教科書を出版し、以後医学、工学、実験心理学や社会調査へ広く応用された。またこれを基にして田口玄一による品質工学という新たな分野も生まれた。 他にも、マーケティングや新しい商品・サービスのコンセプトや仕様を考える場合などに用いられる、コンジョイント分析も有用である。 基本原則[編集] 実験計画法の基本的な原則は次の3つである。 局所管理化 影響を調べる要因以外のすべての要因を可能な限り一定にする。 反復 実験ごとの偶然のバラツキ(誤差)の影響を除
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く