タグ

statisticsに関するAOI-CATのブックマーク (15)

  • GitHub - theaterdays-diary/theater-boost: シアターデイズにて開催されていたアイドル投票イベント、「THE@TER BOOST!」の得票状況推移データです。

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

    GitHub - theaterdays-diary/theater-boost: シアターデイズにて開催されていたアイドル投票イベント、「THE@TER BOOST!」の得票状況推移データです。
  • 仮説検証とサンプルサイズの基礎 - クックパッド開発者ブログ

    パートナーアライアンス部 森田です。有料会員の獲得施策や、それに関わるサービス内動線の最適化を担当しています。 記事の対象 仮説検証を通じて何かを改善をしたいと思っている人 仮説検証の際に「どれくらいのデータを集めたら良いか」分からない人 はじめに 仮説検証とは「仮説を立て、それを証明するためのデータを集め、真偽を確かめること」です。今回は仮説検証を行う際の手順と、その検証に必要なサンプルサイズの考え方を説明します。サンプルサイズの話のみ関心があるかたは、前半を飛ばし「サンプルサイズの決め方」を読んでください。 目次 記事の対象 はじめに 目次 仮説検証のつくりかた 1. 仮説をたてる 2. 施策/KPIを考える 3. 仮説検証後のアクションを決める 4. 対象を決める 5. サンプルサイズを計算する サンプルサイズの決め方 答えを先に サンプルサイズを決める二つの要素 「二つの平均値」と

  • 新春姫初めレズセックス統計企画!-百合エロマンガ解体新書 - 【百合ブログ】百合Edge

    あけおめことよろ! 2016年も百合が大発展する年になってほしいね! ところで君はこんな言説を聞いたことはないかな?? 「まったく最近の百合ときたら学生同士の百合ばっかりじゃないか! けしからん!」 確かに百合作品はマリみてや少女小説の影響なのか女学生同士のカップリングが多いように感じるよね。でも人間の認識力は結構いい加減だから、この傾向が当かどうかはハッキリしない。(いわゆるデータから見れば犯罪は減少傾向なのに「現代は凶悪犯罪が増えている」と吹聴されがちなアレだよ!) つまり百合の時流を当に知りたいなら数値を見なくてはいけないんだ。 女学生同士の百合は全体の何パーセントを占めているのか? それは多いと言えるのか? そういうことは先入観を寄せ付けない数字が今、求められている。 とはいえ百合作品は極めて多いし、そもそも百合は何かという哲学的な問題も持ち上がってくる。百合を定義しないと百合

    新春姫初めレズセックス統計企画!-百合エロマンガ解体新書 - 【百合ブログ】百合Edge
  • 【統計学】初めての「標準偏差」(統計学に挫折しないために) - Qiita

    統計をこれから学ぼうという方にとって、非常に重要な概念ですが理解が難しいものに「標準偏差」があると思います。「平均」くらいまでは馴染みもあるし、「わかるわかるー」という感じと思いますが、突如現れる「標準偏差」 の壁。結構、この辺りで、「数学無理だー」って打ちのめされた方もいるのではないでしょうか。 先にグラフのイメージを掲載すると、下記の赤い線の長さが「標準偏差」です。なぜこの長さが標準偏差なのか、ということも解き明かしていきます。 (code is here) 記事では数学が得意でない方にもわかるように1から標準偏差とはなにか、を説明してみようという記事です。 数式はわかるけど、イマイチ「標準偏差」の意味わからんという方にも直感的な理解がしてもらえるような説明もしていきますので、ぜひご覧ください。 (※ この記事では標準偏差の分母に $n$を使用しています。$n-1$を使用するケースも

    【統計学】初めての「標準偏差」(統計学に挫折しないために) - Qiita
  • 政府統計の総合窓口 GL01010101

    統計データを探す すべて 分野から探す国土・気象人口・世帯労働・賃金農林水産業鉱工業商業・サービス業企業・家計・経済住宅・土地・建設エネルギー・水運輸・観光情報通信・科学技術教育文化・スポーツ・生活行財政司法・安全・環境社会保障・衛生国際その他 組織から探す 内閣官房人事院内閣府公正取引委員会警察庁消費者庁こども家庭庁総務省公害等調整委員会消防庁法務省外務省財務省国税庁文部科学省文化庁スポーツ庁厚生労働省中央労働委員会農林水産省林野庁水産庁経済産業省資源エネルギー庁特許庁中小企業庁国土交通省観光庁海上保安庁環境省防衛省 主要な統計から探す 50音から探す あ い う え お か き く け こ さ し す せ そ た ち つ て と な に ぬ ね の は ひ ふ へ ほ ま み む め も や ゆ よ ら り る れ ろ わ すべて見る 分野から探す 国土・気象人口・世帯労働・賃金農林

    政府統計の総合窓口 GL01010101
  • 総務省統計局 データサイエンス・オンライン講座 社会人のためのデータサイエンス入門

    統計データを用いた分析事例を知り、 統計リテラシーを学ぶ ・大人がデータサイエンスを学ぶべき理由 ・統計データからわかること① ・統計データからわかること② ・統計データからわかること③ ・統計リテラシーの重要性 ・統計を利用する際の注意点 データ分析に必要な統計学の基礎を学ぶ ・データの種類 ・代表値~平均・中央・最頻値 ・ヒストグラムと相対度数 ・四分位・パーセンタイル・箱ひげ図 ・分散・標準偏差 ・相関関係 ・回帰分析 ・標分布 ・信頼区間 データの見方と 適切なグラフの選び方を学ぶ ・統計表の見方 ・比率の見方①-クロスセクションデータ- ・比率の見方②-使い方と注意点- ・時系列データの見方① ・時系列データの見方② ・グラフの選び方① ・グラフの選び方② ・グラフを作る時・読む時の注意点 誰もが使える公的統計データの取得方法と 使い方を学ぶ ・公的統計とは ・公的データの入手

    総務省統計局 データサイエンス・オンライン講座 社会人のためのデータサイエンス入門
  • dplyrを使いこなす!基礎編 - Qiita

    はじめに 4月ということで、新卒が入ってきたりRを使ったことないメンバーがJOINしたりしたので、 超便利なdplyrの使い方を何回かに分けてまとめて行きます。 Rは知らないけど、SQLとか他のプログラミング言語はある程度やったことあるみたいな人向けです。 dplyrを使いこなす!シリーズ 基礎編以外も書きましたので、↓からどうぞ。 * dplyrを使いこなす!Window関数編 * dplyrを使いこなす!JOIN編 dplyrとは データフレームの操作に特化したパッケージです。 Rは基的に処理速度はあまり早くないですが、dplyrはC++で書かれているのでかなり高速に動作します。 ソースの可読性もよくなるので、宗教上の理由で禁止されている人以外は使うメリットは大きいです。 処理可能なデータサイズの目安 あくまでも個人の環境に強く依存した感覚値ですが、1000万行、100MBぐらいのデ

    dplyrを使いこなす!基礎編 - Qiita
  • データビジュアライゼーションのデザインパターン20 −混沌から意味を見つける可視化の理論と導入−

    このの概要 データビジュアライゼーションのデザインパターンをサンプルをもとに,構成する要素やビジュアルのキーとなる部分などの概要から,作成する際に軸となるポイントまでを解説する書籍です。ビジュアライゼーションのサンプル例がWebとしてみることができるので,データビジュアライゼーションの概要を容易に理解することができ,さらにウェブ系のサイト構築/アプリ開発の現場で作成する際にイメージを共有させるなど,さまざまな活用をすることができます。 こんな方におすすめ データビジュアライゼーションを導入したいと考えているWeb,スマートデバイスの設計に関わる人 はじめに 目次 サンプルページの使用方法 Chapter1 データビジュアライゼーションの概論 データを可視化する必要性 データと情報,そしてビジュアライゼーション データは「素材」,情報は「料理」,ビジュアライゼーションは「調理法」と例える

    データビジュアライゼーションのデザインパターン20 −混沌から意味を見つける可視化の理論と導入−
  • e-Stat を使って統計情報を取得してみる - Qiita

    はじめに 今日 (2014/10/31) から政府の統計情報にアクセスできる Web API が公開されたらしい。 http://www.e-stat.go.jp/api/ 利用できるデータの一覧は下記 URL にある。 国勢調査から勤労統計からいっぱいある。 http://www.e-stat.go.jp/api/api-info/api-data/ なんか面白そう! ということで使ってみた記録。 登録 まずは、このページにアクセスして、利用者登録を行う。 http://www.e-stat.go.jp/api/regist-login/ メールアドレスと名前なんかを入力。 メールアドレスにお知らせが届いているのでクリックしてアクティベート。 次に、ログイン。アプリケーション ID をゲット。一人 3 ID までらしい。これ以降、アプリケーション ID を xxx とする。 データ取得と

    e-Stat を使って統計情報を取得してみる - Qiita
  • 【IT】ニコニコ動画にStats機能がないので自作してもらった : Apocalypse

    関東でも、木枯らしが吹きました。雨戸ががたがた言いました。 寒いです。もう冬ですね。 さて、今日はちょっと自作ソフトウェアに関するお話です。(といっても私が自作したわけではないが) ニコニコで活動している人には耳寄り情報になるかもしれません。 まず、事前情報として、YoutubeにはStats(統計情報)があるが、ニコニコにはない、というお話をします。 というわけで、YoutubeのStatsではどんなことが出来るのか、ざっと解説します。 Youtubeの自分のアカウントにログインした際の画面。「ダッシュボード」 この画面に来るだけで既に、直近30日間の再生数・チャンネル登録者の伸びを見ることができる。 そして、ダッシュボード画面内のその部分をクリックする、ないしは左の「クリエイターツール」にある 「アナリティクス」を選択すると、詳しい統計を見られる。 統計表示画面のデフォルト。直近28日

    【IT】ニコニコ動画にStats機能がないので自作してもらった : Apocalypse
  • 生活定点1992-2018|博報堂生活総研

    生活定点とは? 1992年から隔年で実施している生活者の意識調査です。同じ質問を繰り返し投げ掛け、その回答の変化を定点観測しています。

    生活定点1992-2018|博報堂生活総研
  • ニコニコ動画 『スナップショット検索API』 ガイド

    ニコニコ動画 『スナップショット検索API』 ガイド ニコニコ動画のコンテンツを解析する目的で検索/取得する際に利用できますはじめにAPIは、ニコニコ動画のコンテンツに紐づく情報を、検索結果として提供します。検索結果は、一日のある時点で保存された情報が返されます。キーワード検索・タグ検索ニコニコ動画の検索は大きく分けて、キーワード検索とタグ検索の2つがあります。これらは、検索クエリの対象となるフィールドによって切り替えられます。エンドポイントhttp://api.search.nicovideo.jp/api/snapshot/検索クエリ形式以下のJSONをPOSTすることで、検索結果を取得できます。オプション 以外は必須フィールドです。issuerにはサービス名かアプリケーション名を指定してください。 { "query" : 検索キーワード "service" : 検索対象サービスリス

  • DATA GO JP/open data

    データセット データセットとは、ファイルやURLなどの「オープンデータ」が登録された入れ物を指します。 データポータルでは、複数の切り口からデータセットを探すことができます。

  • 主成分分析が簡単にできるサイトを作った - ほくそ笑む

    あけましておめでとうございます。 年もよろしくお願いいたします。 主成分分析 さて、昨年の終わりごろから、私は仕事で主成分分析を行っています。 主成分分析というのは、多次元のデータを情報量をなるべく落とさずに低次元に要約する手法のことです。 主成分分析は統計言語 R で簡単にできます。 例として iris データで実行してみましょう。 data(iris) data <- iris[1:4] prcomp.obj <- prcomp(data, scale=TRUE) # 主成分分析 pc1 <- prcomp.obj$x[,1] # 第一主成分得点 pc2 <- prcomp.obj$x[,2] # 第二主成分得点 label <- as.factor(iris[,5]) # 分類ラベル percent <- summary(prcomp.obj)$importance[3,2] *

    主成分分析が簡単にできるサイトを作った - ほくそ笑む
  • hadoopの話とpythonでデータマイニングをする話 - gumi Engineer’s Blog

    gumiの粟飯原です。 データマイニングやってます。しかしながら最近はあまりデータをいじる時間がなく社内でプレゼンばかりする日々で、社内でも私がなにやってるのかわからないというもっぱらの評判。そこで今回は一応データ解析もやってはいるんだよということを内外に主張するためにもデータマイニングの話をしようと思います。 アプリの基的な日々の統計データ取得などは別の方々はやられているので、私からはhadoopを使った大規模解析の話や、そこで得られたデータを分析する環境の話をしたいと思います。コードを併記した具体例などは今回載せられないのですが、今後また紹介していければと思います。 大規模データの解析 日々のログ解析やDB解析はcronによる処理で毎朝レポーティングを行っているのですが、新しい情報を過去のアクセスログからまとめてどかんと取得したいと言う時はHadoopによる大規模解析を実行しています

    hadoopの話とpythonでデータマイニングをする話 - gumi Engineer’s Blog
  • 1