タグ

じ時系列分析に関するmidnightseminarのブックマーク (31)

  • Rでの単位根検定はadf.test()関数よりCADFtest()関数がいいのでは? - StatsBeginner: 初学者の統計学習ノート

    時系列データをあまり扱わないのでまじめに考えてなかったんですが、Rで単位根検定をする場合、拡張ディッキー=フラー検定(augmented Dickey–Fuller test)を実施してくれるadf.test()という関数があります。 しかしこの関数は、 考慮するラグの次数を指定しなかった場合、サンプルサイズ(時系列データの長さ)を基準にして自動選択している 定数項もトレンド項も含むパターンしかやってくれない という制限があり、後者についてはたいていの場合含めといたほうがいいらしいので問題ないとして、前者はよくわからない基準であって*1、来はAICなどに基づいて選択されたラグ次数を用いたモデルで検定したほうがいいと思われます。実際ラグ次数によって結果がけっこう変わることもあるので、慎重に選んだほうがいいかと思います。 ということで、以下の記事で説明されているように、CADFtestパッケ

    Rでの単位根検定はadf.test()関数よりCADFtest()関数がいいのでは? - StatsBeginner: 初学者の統計学習ノート
  • http://user.keio.ac.jp/~nagakura/R/ts_R2.pdf

  • 時系列解析_ホワイトノイズとランダムウォーク | Logics of Blue

    Rを用いた時系列解析 の実践例を載せます。 時系列解析ってなに? という方は時系列解析_理論編を先に読まれるとよいと思います。 ここでは、格的な時系列モデルを組む前に、予測がほぼ不可能であるホワイトノイズとランダムウォークの性質と和分過程の特徴を解説します。 モデルによる予測ができない時 1.ホワイトノイズ これからARIMAモデルを推定していくわけですが、そもそも自己相関が全くない、すなわち過去から未来を予測できないデータをお目にかけます。 自己相関の無い完全な雑音のようなデータのことをホワイトノイズと言います。 このホワイトノイズをforecastパッケージのauto.arimaでモデリングしてみましょう。 ホワイトノイズは下のコードで簡単に作れます。 set.seed(1) white.noise <- rnorm(n=400) plot(white.noise, type=”l”

    時系列解析_ホワイトノイズとランダムウォーク | Logics of Blue
    midnightseminar
    midnightseminar 2017/09/15
    ホワイトノイズとランダムウォークの例をRでシミュレーション
  • VARモデル | Logics of Blue

    最終更新:2016年1月24日 Rを用いたVARモデルの簡単な解説と計算方法を載せます。 目次 1.VARモデルとは 2.VARモデルの仕組み 3.VARな予測 4.VARあれこれ スポンサードリンク 1.VARモデルとは 以前紹介したのは1変量のARIMAモデルというものでした。 これは「過去の自分のデータから将来の自分を予測する」というものです。たとえば、2000年にサンマがたくさんいたら過去の2001年にもたくさんいることになるだろうという風に、サンマの予報をするなら、サンマの漁獲量だけに注目してして予測をします。 でも、去年餌になるプランクトンが多かったから今年はサンマが増えた、という風に、「ほかのやつら」の影響を受けているかもしれませ ん。 そんな場合をモデルで表して予測をしてやろうというのが今回扱うVARモデルというものになります。 2.VARモデルの仕組み VARとは Vec

  • {TSclust} ではじめる時系列クラスタリング - StatsFragments

    概要 こちらで書いた 動的時間伸縮法 / DTW (Dynamic Time Warping) を使って時系列をクラスタリングしてみる。ここからは パッケージ {TSclust} を使う {TSclust} のインストール install.packages('TSclust') library(TSclust) サンプルデータの準備 {TSclust} では時系列間の距離を計算する方法をいくつか定義している。クラスタリングの際にどの定義 (距離) を使えばよいかは 時系列を何によって分類したいのかによる。{TSclust} に実装されているものをいくつかあげると、 diss.ACF : ACF diss.CID : Complexity Correlations (よくわからん) で補正したユークリッド距離 diss.COR : ピアソン相関 (ラグは考慮しない) diss.EUCL :

    {TSclust} ではじめる時系列クラスタリング - StatsFragments
  • 時系列データを分散分析してしまった例: Taglibro de H

    時系列データをそのまま回帰分析にかけるとマズいという話は、ことしの生態学会で久保さんがされたそうです(すいません、別の集会にいってました)。最近、時系列データを、時間を群にわりあてて分散分析しているという例をみてしまったので、どうなるのかやってみました。 [追記] 状態空間モデルでの解析例を追加しました。 下のようなコードです。状態Yはランダムウォークして、測定値Xは状態Yから、正規分布にしたがうばらつきをもって得られるとしています。 set.seed(123) ## System model N.t <- 8 Y <- rep(0, nrow = N.t) for (t in 2:N.t) { Y[t] <- Y[t-1] + rnorm(1, 0, 1) } ## Observation model N.r <- 10 X <- rep(Y, each = N.r) X <- X +

    時系列データを分散分析してしまった例: Taglibro de H
  • 時系列データの季節調整をしてみよう - 餡子付゛録゛

    時系列データには、季節バイアスが入りがちです。年中行事はもちろんのこと、天候の変化も周期的に発生します。ゴールデンウィークのある5月よりも6月の方が行楽客が少ないとしても、行楽客が減少し出したとは言えないでしょう。そもそも月ごとに日数も異なりますし。月次データを見るときは、季節バイアスの影響を考慮する必要があります。これを数字の処理で行なうのが、季節調整です。実際にRで試してみて、どのぐらい調整できるか見てみましょう。単純移動平均とloessアルゴリズムを用います。 1. 精度を確認する手順 実データでは季節バイアスがどれぐらい入っているのか真実は誰も知らないので、季節バイアスが入った擬似データを作成します。二次方程式から作った非季節変動値に、乱数から作った真の季節バイアスを加えて、観測データを作ります。この観測データを処理して計算された季節バイアスを取り出し、真の季節バイアスと就き合わせ

    時系列データの季節調整をしてみよう - 餡子付゛録゛
  • 時系列解析_理論編 | Logics of Blue

    最終更新:2017年6月1日 時系列分析という名前はご存知でしょうか? 残念ながらExcelで実行するのがやや困難であるためこの名前もあまり浸透していないのではないかと思います。 時系列解析は、回帰分析とは違ってあまり知らない人も多いと思うので、ざっと解説を載せておきます。これだけ読めば、時系列分析の雰囲気はつかめるのではないでしょうか。 時系列分析の基礎の基礎からSARIMAモデルまでを一気に解説します。 それと、便利なパッケージ forecast の紹介も。 Rを使えば簡単に計算できますよ。 Pythonを使いたい方は「Pythonによる時系列分析の基礎」の実装例も併せて参照してください。 スポンサードリンク 目次 1.時系列解析って何? 2.時系列データの扱い方 3.知ると便利な用語集 3-1.自己相関係数・偏自己相関係数 3-2.ARモデル(自己相関モデル) 3-3.MAモデル(移

    midnightseminar
    midnightseminar 2014/10/29
    Rでの時系列分析のやりかたが簡単にまとめられている。
  • 時系列 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "時系列" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2021年3月) 時系列(じけいれつ、英: time series)とは、ある現象の時間的な変化を、連続的に(または一定間隔をおいて不連続に)観測して得られた値の系列[1](一連の値)のこと。例えば、統計学や信号処理で時間経過に従って計測されるデータ列であり、(通常、一定の)ある時間間隔で測定される。均一間隔では無い場合は点過程と呼ぶ。 概略[編集] 時系列解析や時系列分析はそのような時系列を解釈するための手法であり、データ列の背後にある理論(なぜそのような時系列になったのか?)を見

  • 自己回帰移動平均モデル - Wikipedia

    自己回帰移動平均モデル(じこかいきいどうへいきんモデル、英: autoregressive moving average model、ARMAモデル)は自己回帰モデルによる線形フィードバックと移動平均モデルによる線形フィードフォワードによりシステムを表現するモデルである[1]。George Box と G. M. Jenkins の名をとって "ボックス・ジェンキンスモデル" とも呼ばれる。 ARMAモデルは時系列データの将来値を予測するツールとして機能する。 定義[編集] 次の自己回帰 (AR) および 次の移動平均 (MA) からなる自己回帰移動平均モデル は以下のように定義される[2]。 ここで は定数、 は自己回帰パラメータ、 は移動平均パラメータ ()、 は時刻 におけるホワイトノイズである。 すなわちARMAモデルでは、各時刻でサンプリングされたホワイトノイズが過去時刻 まで重

    midnightseminar
    midnightseminar 2014/10/29
    説明は分かりやすい。
  • [PDF]系列相関:DWについて

    midnightseminar
    midnightseminar 2014/10/27
    ダービン・ワトソン比
  • ダービン‐ワトソンの統計量|構造計画研究所

    midnightseminar
    midnightseminar 2014/10/27
    残差同士の相関(系列相関・自己相関)の程度を検定するダービン・ワトソン検定。
  • Googleがリリースした「キャンペーンとKPIとの因果関係を推定する」Rパッケージ{CausalImpact}を試してみた - 渋谷駅前で働くデータサイエンティストのブログ

    何気なくR-Bloggerのタイムラインを見ていたら、"CausalImpact: A new open-source package for estimating causal effects in time series | Google Open Source Blog"という記事がシェアされていたので見に行ってみたのでした。これはもう読んで字の如く「GoogleがキャンペーンがKPIにもたらす因果的影響を時系列から推定する」ためのRパッケージの話題で、その名も{CausalImpact}という。 ということで、ちろっと触ってみたので簡単にレビューしてみようと思います。当は色々試してみたかったんですが、ちょっと手元に良いデータがないのでヘルプの事例のみでご勘弁を。。。 インストール 追記 (Jan 29 2020) 現在はCRANからインストールできます。 install.pack

    Googleがリリースした「キャンペーンとKPIとの因果関係を推定する」Rパッケージ{CausalImpact}を試してみた - 渋谷駅前で働くデータサイエンティストのブログ
  • Rでベイジアン動的線形モデルを学ぶ(2):まずは状態空間のコンセプトと基本のローカルレベル・モデルから - 渋谷駅前で働くデータサイエンティストのブログ

    前回からだいぶ間が空いた上に、要は{dlm}パッケージで遊ぼう!という大袈裟なタイトルの割に中身のないこのシリーズ記事ですが(笑)、取るものもとりあえずちょっと例題をやってみようと思います。参考文献はまずこちらのPetris。 Rによるベイジアン動的線形モデル (統計ライブラリー) 作者: G.ペトリス,S.ペトローネ,P.カンパニョーリ,和合肇,萩原淳一郎出版社/メーカー: 朝倉書店発売日: 2013/05/08メディア: 単行この商品を含むブログを見る あと、以前買ったけどまだ全部読み切ってないこちらのCommandeur*1も。 状態空間時系列分析入門 作者: J.J.F.コマンダー,S.J.クープマン,Jacques J.F. Commandeur,Sime Jan Koopman,和合肇出版社/メーカー: シーエーピー出版発売日: 2008/09メディア: 単行購入: 2

    Rでベイジアン動的線形モデルを学ぶ(2):まずは状態空間のコンセプトと基本のローカルレベル・モデルから - 渋谷駅前で働くデータサイエンティストのブログ
  • 偏相関係数

    裏 RjpWiki の 2 個の時系列データの相関を考えるときは... と 2 個の時系列データの相関を考えるときは...(その2) がたいへんおもしろかったので試してみた。 まず p 値は来は帰無仮説のもとに一様分布になるべきである。例: p = replicate(100000, { x = rnorm(100) y = rnorm(100) cor.test(x, y)$p.value }) hist(p, freq=FALSE, breaks=20, col="gray", main="") しかし「時系列」ではそうならないことがある。例として,まったく独立に生成されたはずの二つのランダムウォークする系列の相関係数を求めると,こんな具合になる: p = replicate(100000, { x = cumsum(rnorm(100)) y = cumsum(rnorm(100)

  • 2 個の時系列データの相関を考えるときは...(その2) - 裏 RjpWiki

    Julia ときどき R, Python によるコンピュータプログラム,コンピュータ・サイエンス,統計学 元データがない(?)ようなので,グラフから読み取って分析してみる。 > d = read.table("takahashi.dat", header=TRUE) # データは末尾に掲載 > plot(x ~ t, type="o", col="blue", pch=16, ylim=c(-1.5, 2), ylab="x", xlab="t") > points(y ~ t, type="o", col="red", pch=16, yaxt="n", ylab="y") > axis(4, at=seq(-1.5, 2, length=11), labels=seq(90, 140, by=5)) > mtext("y", 4, 1.8) > (r_xy = cor(x, y)) #

    2 個の時系列データの相関を考えるときは...(その2) - 裏 RjpWiki
    midnightseminar
    midnightseminar 2014/09/15
    時間に従うトレンド変数の影響を除いた偏相関を求める。原理的には、時間への回帰モデルの残差どうしの相関係数を求める計算に等しいという解説。
  • 2 個の時系列データの相関を考えるときは... - 裏 RjpWiki

    Julia ときどき R, Python によるコンピュータプログラム,コンピュータ・サイエンス,統計学 http://abrahamcow.hatenablog.com/entry/2014/09/11/024924 「時系列データの相関係数はあてにならない……のか? 教えて下さい」なんだけど... 私のコメントが気に触ることが多いようなのですが(特に悪意はないつもりなんですけど,すみませんね) 私は,経済学とか時系列についてはよく知らないのですが,「これは「見せかけの相関(擬似相関;spurious correlation)」の例だ」ということならば,偏相関係数を考えればよいのではないでしょうかね??社会学などでは当たり前のように使われていると思うのですが。 > set.seed(1) > x = cumsum(rnorm(100)) > set.seed(2) > y = cumsu

    2 個の時系列データの相関を考えるときは... - 裏 RjpWiki
    midnightseminar
    midnightseminar 2014/09/15
    時系列データの相関を考える際は、時間に従って直線的に増える変数を添えて、それとの相関を除いた偏相関をみる。
  • 時系列データの相関係数はあてにならない……のか? 教えて下さい - 廿TT

    記事の趣旨 見せ掛けの回帰と見せ掛けの相関(擬似相関)は違います。 時系列(というか、ランダムウォークする系列 ランダムウォーク - Wikipedia )の場合、相関係数は比較的高い値になりやすく、また有意な相関が出やすいので注意。 あと高橋洋一の議論を擁護する話題が混じっていますが、これについては、金融緩和はブタ積み上等。金融緩和賛成。消費税増税反対。 - 廿TT を参照してください。 「時系列 相関」 「時系列 相関」でググったところ以下のような記事がヒットした. 時系列データの相関係数はあてにならない: ニュースの社会科学的な裏側 現時点では Google 検索で上から 6 番目 R - 時系列データ分析の初心者に必ず知ってもらいたい重要ポイント:回帰分析 ・相関関係分析を行う前に必ずやるべきこと(データの形のチェックと変形) - Qiita 現時点では Google 検索で上か

    時系列データの相関係数はあてにならない……のか? 教えて下さい - 廿TT
    midnightseminar
    midnightseminar 2014/09/15
    時系列データどうしの相関を求めると見せかけの相関が出やすいということを、ランダムウォークの変数をつかってシミュレーションしている。
  • 時系列データの相関係数はあてにならない

    元官僚の高橋洋一氏が時系列データの相関係数が高い事を論拠にしているが、この論証方法は全くもって厳密ではない。 計量経済学では時系列データの相関係数はあてにならない事は80年代から良く知られており、これに関連した業績でエングルとグレンジャーは、2003年にノーベル経済学賞を受賞している。 高橋氏のトリックを説明したい。世の中には時間とともに変化していくトレンド*1と言うのが多くある。このトレンドがあるデータを二つ比較すると、どちらも時間に対して相関しているため、相関があるように見えてしまう。 例えば戦後、一人あたりの米の消費量は減少し、コンピューターの普及台数は飛躍的に伸びたが、この二つの現象を結びつけて考える人はいない。しかし、米の消費量とコンピューターの普及台数は、高い相関を持つ事になる。 実データの場合は屁理屈をつける事も可能かも知れないので、シミュレーションして確かめてみよう。

    時系列データの相関係数はあてにならない
  • Rで学ぶ回帰分析と単位根検定 - slideshare

    単回帰分析を復習した後、単純に回帰分析を適用してはいけない『やってはいけないケース』を紹介。 そしてそれがなぜ起こるのかを実例を通して紹介した後、この問題を検出するための方法の1つという観点から単位根検定の紹介をします。

    Rで学ぶ回帰分析と単位根検定 - slideshare