Overview This page includes a variety of sample layouts which you can use as a starting point for your own dashboards. When creating a layout, it’s important to decide up front whether you want your charts to fill the web page vertically (changing in height as the browser changes) or if you want the charts to maintain their original height (with the page scrolling as necessary to display all of th
はじめに dplyrの使い方にちょっと慣れてくると、「あー、これもうちょっと簡単にできないの?」みたいな事が出てきたりします。 今回は、そんな悩みをほんのちょっと解決できるかもしれない、Window関数について解説したいと思います。 SQLに詳しい人はすぐイメージできると思いますが、私の周りにもWindow関数の存在自体を知らない人が結構居たのでいい機会なので、ざっくりまとめます。 dplyrってなんぞやという方は、基礎編の記事を見ていただければと。 Window関数を使うと簡単にできることの例 とは言っても、具体的に何ができるのか、分からなかったら読むのもメンドクサイので、まずは簡単にできることを紹介します。 ランキング(タイ順位考慮あり、なし等含む) 前日比、前週比(前後のレコードとの比較等) 累積(累積和等) 移動平均(Windowサイズの指定、Windowの位置、重み等) どれも自
このブログは、株式会社フィックスターズのエンジニアが、あらゆるテーマについて自由に書いているブログです。 特徴空間上に分布した $n$個のパターン $x_1, x_2, …, x_n$ を、いくつかの塊に分割することを考えます。いくつの塊 (クラスタ) に分割すべきなのか?は分かっていません。このような状況でパターンを適切にクラスタに分割する方法、即ちクラスタリングについて考えます。 ここでは、ディリクレ過程混合モデルによるクラスタリングについて考えてみます。ディリクレ過程混合モデルによるクラスタリングは、事前にクラスタがいくつあるか知らなくても、適切に分割できる優れた方法です。k-means 法などでは、あらかじめクラスタがいくつなのか、指定する必要があります。ただ、ディリクレ過程混合モデルによるクラスタリングは、全体像を捉えるのが難しいです。そこで、この記事では細部を適当に省略しつつ、
色の16進数表記をいちいち出すのがめんどうなので、メモ の前に RColor Brewerでよく使うコマンド library(RColorBrewer) #全てのカラーパレットの表示 display.brewer.all(n = NULL, type = "all", select = NULL, colorblindFriendly = FALSE) ##これだけでも良い display.brewer.all() #1つのカラーパレットの表示 display.brewer.pal(n = 8, name = 'Dark2') #色の16進数表記を抽出 ##nは3以上でないと(なぜか)エラーが出る brewer.pal(n = 4, name = "Dark2") ##output ##[1] "#1B9E77" "#D95F02" "#7570B3" "#E7298A"
はじめに この度、強化学習によるテトリスの AI を作成してみました。想像以上にうまくいき、最終的には半永久的にラインを消してくれる AI に成長してくれたので、今回はその記録として AI を作成した過程をここに記していきます! 今回の AI の概要 今回作成したテトリス AI の概要は以下の通りです。 特定のゲームの状態から可能な行動パターンを全てシミュレーションする 行動後の状態を入力情報として Neural Network に今後の報酬の期待値を推測させる 今後の報酬の期待値が一番高くなる行動を実際の行動として選択して遷移する (貪欲方策) Game Over になるまで 1 ~ 3 を繰り返す Tetris AI を可視化した図 何も知らない頃は『AI ってどうやって動いてるんだ?』と自分は思っていたんですが、動作原理は非常にシンプルです。強化学習とは、この今後の報酬の期待値を推測
みなさんこんにちわ、カカオ豆です。 皆さんは家でコーヒーを飲みますか?僕は一日4杯くらい飲みます。 コスパ良く美味しいコーヒーが飲みたすぎて自家焙煎までしはじめて、職場の同僚にもその良さを布教しまくるようなウザムーブをかまして、気がつけば2年が経ちました。 さて、自宅コーヒーは、ちょっと気をつけて投資するだけでその辺のカフェくらいなら余裕で追い越せるくらい美味しいのが淹れられるようになります。 え?「プロをなめんな?」 いえいえ、もちろん超こだわったお店で超こだわる客に出す超高い一杯を超えるのは相当難しいです。 しかし普通のカフェが出す普通のお客さんに出す普通の一杯は極限までコストを削減しなければならないのです。 それはそれでプロの仕事ですが、我々自家消費のしろうとはコスト感覚を無視して高級豆を使えるのです。よく「ドリップ技術」なんて言われますが、コーヒーのドリップは豆の品質がほとんどです
はじめに こんにちは、事業会社で働いているデータサイエンティストです。 本記事では、ディリクレ過程回帰モデルという、柔軟に独立変数(共変量、特徴量)と従属変数(結果変数)の関係性をモデリングする手法を紹介します。詳細はHannah, Blei and Powell(2011)を参照してください。 さて、ディリクレ過程回帰はノンパラメトリックベイズの一種なんですが、柔軟に独立変数と従属変数をモデリングする手法でいうとガウス過程で良いのでは?という疑問もあるかもしれません。 勉強不足の状態での個人的な意見になりますが、ガウス過程には二つの大きな課題があります: 独立変数と従属変数の関係を記憶する巨大な共分散行列の逆行列を求める必要があり、そもそもあまりスケールしません 曲線の当てはめに置き換えられるタスク以外で活用しにくい 一つ目の問題はEC2で強力なインスタンスを立ててそこで計算すればある程
https://www.math.mcgill.ca/yyang/comp/notes/note4code.R library(glmnet) このパッケージで使用されるデフォルトのモデルは、Guassian線形モデルまたは最小二乗法である。説明のためにあらかじめ作成したデータセットをロードする。ユーザは自分のデータをロードすることも、ワークスペースに保存されているデータを使用することもできる。 pacman::p_install_gh("emeryyi/gglasso") library(gglasso) data(bardet) x<- bardet[["x"]] y<- bardet[["y"]] glmnetの最も基本的な呼び出しを使ってモデルをフィットさせる。 fit = glmnet(x, y) "fit "はglmnetクラスのオブジェクトで、フィットされたモデルの関連情報を
人文系大学生〜学部卒の方々を念頭に置いた講演でのスライドです。Enjoy! *書籍:林岳彦著『はじめての統計的因果推論』(岩波書店)の情報はこちら→ https://www.iwanami.co.jp/book/b639904.html
理化学研究所(理研)脳神経科学研究センター 数理脳科学研究チームの寺田 裕 基礎科学特別研究員(研究当時)と豊泉 太郎 チームリーダーの研究チームは、神経ダイナミクスのカオス[1]を用いて、環境状態の推定を行う脳型のベイズ計算[2]機構を提案しました。本研究成果は、脳の情報処理メカニズムの原理の解明、特に神経活動のダイナミクスを用いた推論の理解に貢献すると考えられます。また、脳を模倣したニューロモルフィック計算機[3]など人工知能や機械学習への応用も期待されます。 今回、研究チームは、神経細胞間の情報伝達を担うシナプス結合[4]の効果で生じる神経活動のカオスに着目しました。提案した脳の神経回路[5]のモデルでは、感覚入力がたとえ一定であっても、シナプス結合による神経細胞間の相互作用を使って時間とともに揺らぐ神経活動を積極的に生成します。このように生成された神経活動は微小な変動による誤差が将
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く