サービス終了のお知らせ いつもYahoo! JAPANのサービスをご利用いただき誠にありがとうございます。 お客様がアクセスされたサービスは本日までにサービスを終了いたしました。 今後ともYahoo! JAPANのサービスをご愛顧くださいますよう、よろしくお願いいたします。
人工知能やデータ解析の領域で、膨大な量のデータから、物体概念(物体識別)や音声・体の運動スキーマ概念を自動的・自律的に獲得できる可能性をもった手法として、Deep Learning(ディープ・ラーニング、「深層学習」)と総称される手法が注目を集めています。 こうした中、一部の研究者やベンチャー企業の経営者・エンジニアの中には、このDeep Learningのさらに先をいくデータ解析手法として、TDA:トポロジカル・データ・アナリシス (Topological data analysis) と呼ばれる手法に着目している方たちがいるようです。 Deep Learningと同じく、人間が脳を使って、五感で得た周囲や自分の体についての感覚情報から、どのようにして周囲の環境空間に対する認識イメージや、物体概念、みずからの身体概念を得ているのか?という「問い」に対して、統計学や確率論のアプローチではな
ベイジアンネットワークとは 事象間の連関を確率的な仮定として、有向グラフを用いて表す方法。 ネットワーク構造は、DAGでなければならないという制約がある。(原因と結果が循環的な構造になってしまうのを避けるため) ベイジアン・ネットワークをデータ分析に応用すると、変数間の連関を有効グラフで表す事が出来る。 ベイジアン・ネットワークにおける有向辺の有無を決める基準には、確率的な「独立」が用いられる。 このとき、 なので、Aの確率はBの影響を受けない。 このように2つの変数が独立、もしくはそれにちかければ、それらの間に連関は無いと考え、それらの変数を表すノード間にエッジは張られない事になる。 ベイジアン・ネットワークの例 データは、ネットワーク分析 (Rで学ぶデータサイエンス 8)に出てくる「ハイテク企業の管理職21人の社会ネットワーク」。 ハイテク企業の管理職データ Age Tenure Dp
一番の違いは、生成モデルか識別モデルか、ということ。それぞれ、 Markov Random Fields (MRF) は生成モデル Conditional Random Fields (CRF) は識別モデル です。 What is exactly the difference between MRF and CRF ここを見ると割とすっきりする。 ただ、少しスムーズに納得できないことがありまして…それは、MRFもCRFもグラフィカルモデルで書くと無向グラフとなること。識別モデルは無向グラフで生成モデルは有向グラフなんじゃ…?と思ってしまう人もいるんじゃないかと思う(いなかったらごめんなさい)。 グラフィカルモデルとしての表現 一般に、生成モデルは有向グラフの形で記述され、識別モデルは無向グラフとして記述される。例えば、隠れマルコフモデル (HMM) は有向グラフで、条件付き確率場 (CR
高次元データの大域的な性質に着目した分類、解析の手法にPersistent Homologyという方法があります。 またその手法を実装したRのパッケージ(CRAN phom package)があったので簡単に紹介いたします。その他の色々な言語で使えるライブラリについても最後に紹介いたします。 ホモロジーについて ホモロジーとはあまり厳密でない言い方をすると微小な変形によっては変わることのないものの形状を特徴づけるような量で、一般には群の形で記述されます。群の係数としては整数や複素数などの数だけでなく、関数もとり得ます。しかしデータ解析の分野においては実係数のホモロジー群のみが対象とされる場合が多いようです。 球面、あるいはトーラス(ドーナツ型の図形)の表面は2次元ですが境目を持ちません。しかしながら全体としてみるとトーラスには穴が開いていて、球面には穴がありません。この穴に相当するものの有
昨日の記事で、多様体学習に触れた 多様体学習は、非線形に次元を下げる話と言い換えることができるが、それに関連する用語を挙げよう Isomap 点間距離を局所について測り、グラフ上の最短距離を局所において定める。その上で、すべての点間のグラフ上最短距離をそのつなぎ合わせとして決める。ペアワイズな最短距離が計算で来たら、それをユークリッド空間の距離のように見立ててMDSで低次元空間に埋め込む Kernel_PCA カーネル法(座標の計算をする代わりに内積計算をして計算量を減らす仕組みを使った方法)を文字込んだPCA拡張版。分解しやすいように、実際よりも次元を高くして分解できる条件を作ってやった上で、意味の大きい軸を引き出す Nonlinear dimensionality reduction methods これらを大きくくくるとNonlinear dimensionality reducti
ずいぶん遅くなりましたが、ひとまず完成です。疑問点・翻訳ミスを始めとした指摘がありましたら、どしどしお願いします(14/12/18)。 1週間あるから大丈夫だろうとたかを括っていたら、あっという間に投稿日になってしまいました。本当はPylearn2を使ってRBMを学習させようと考えていたのですが、役に立つ内容を書くには時間が足りなさすぎるので、お茶を濁します。 今回の目標 Restricted Boltzmann Machine及びDeep Belief Networkの基本的な動作原理を知る "A Practical Guide to Training Redstricted Boltzmann Machine"(GE Hinton, 2012)で黒魔術(RBMの性能を引き出すコツ)を学ぶ 先日、以下のような発表をしました。今回の内容は以下のスライドの焼き直し・改良を含みます。参考にどう
Machine Learning Advenc Calendar 2013の23日目担当の得居です。 株式会社Preferred InfrastructureでJubatusを作ったりしています。 今日は深層学習(deep learning)の話です。 深層学習はこの2年ほどで専門外の人にも知れ渡るほどに大流行しました。 データさえ大量にあればテクニック次第で他の手法を圧倒する性能を達成できることから、特に大量のデータを持つ大企業において大々的な参入が相次ぎました。 主に流行っているのは教師あり学習です。 補助として教師なし学習による事前学習(pretraining)も、特に音声認識のタスクにおいては行われているようですが、画像認識を中心に事前学習なしでもテクニック次第で学習できるという見方が強まっています。 一方で教師なしデータからの学習はブレイクスルー待ちといった雰囲気です。 Deep
Hello Autoencoder 最近,身内でDeep Learningを題材に含んだ勉強会を行なっている. メインは専門である自然言語処理まわりだが, とりあえず実装(というよりnumpy)の導入になる上,結果を視覚化できることから, 画像データを利用したAutoencoderの実装について取り扱った. 軽い説明と共にコードと,色々な結果を Autoencoder Autoencoderとは,Neural Networkの特殊系で,基本的には 入力層と出力層のユニット数が同じである. 教師信号として入力そのものを与える. という特徴を持つ. 入力と出力が共に4次元で,隠れ層が2次元なAutoencoderの図 Autoencoderは,入力の情報をを一度隠れ層の空間に写像(encode) したあと, 元の信号を復元(decode)するようなパラメータを学習する. 図のように,もしも隠れ
決定理論 予測するとは? 分類問題の目標は、観測したxがどのクラスに属するのかをはっきりと知る事。 そのための手法は「識別関数」「識別モデル」「生成モデル」の3つあるが、その前にまず「決定理論」と「そうでないもの」の2つに大別される。以下、言葉の意味を整理する。 ・決定理論 「推論」と「決定」の2段階に分ける手法。 ・そうでないもの 2段階に分けない手法。これが3つの手法のうちの1つ目の、識別関数。パーセプトロンやSVMがそう。 訓練データから識別関数f(x)を求め、未知の入力データxにそれぞれに対し、どのクラスに属するかの答えを直接与える手法。 確率を用いず、例えば2クラス分類であれば陽性と陰性との間の境界線のみを求める。 決定理論とは? 「推論」とは、訓練データから事後分布p(Ck|x) をモデル化する事。 識別関数が陽性/陰性を一発ではっきりと答えを出すのに対し、この患者xが陰性であ
最近では機械学習の認知度も上がってきていて専門家でなくてもナイーブベイズやSVMなどの名前を知っている人も増えてきたように思う。 そんなわけでちょっと機械学習をはじめてみようかな、と思っている人も多いのではないだろうか。とはいえ「数式よくわからない」「確率嫌い」といった理由で尻込みしているケースも多いのでは。 そこで予備知識ゼロでもわかるような機械学習の入門記事を書いてみたよ。 機械学習を「作りたい」のか「使いたいのか」 まず最初に確認したいのがこれ。使いたいだけならまずはSVMを使ってみれば良い。世の中にはlibsvmやsvmlightという良いツールがあるのでそれを使おう。以下の記事は機械学習を「作りたい」「仕組みを知りたい」人向けの内容になっている。 「最も簡単な機械学習はナイーブベイズ」という幻想 機械学習といえばナイーブベイズという話がよくある。ナイーブ(単純)という名前からいか
最大エントロピーモデルについての解説。 既存の資料としては、A Simple Introduction to Maximum Entropy Models for Natural Language Processing や「言語処理のための機械学習入門」(通称高村本)が詳しい。 記事中でもその用語を適宜使ったり、内容を引用したりする。 ここでは、できるだけ直感的に理解できるような説明を目指す。 まず、最大エントロピーモデルとは何か。 最大エントロピーモデルは、分類を行う時に使われる。 たとえば、あるレビューに出てきた単語(good とか bad とか)から、そのレビューがポジティブなのかネガティブなのか分類する、というようなもの。 この分類先のことをクラスと呼ぶ。 最大エントロピーモデルは識別モデルの一種。 識別モデルの他には生成モデルというものもある。 これらの違いは、レビューの例で言う
図1に示すように、非線形データ構造を線形構造に変換することができれば、線形データ解析手法で非線形データを容易に扱うことができる。 データを変換することで、非線形構造を線形構造に変換することが可能である。例えば、図2(a)に示す2次元平面座標系(x,y)上の4つの点A1(1,1)、A2(1,-1)、A3(-1,-1)、A4(-1,1)を考えよう。仮にA1とA3がひとつのクラス、A2とA4がひとつのクラスだとすると、平面上でクラスの境界線を一本の直線で引くことができない。しかし、新しい変数 を導入し、2次元平面(x,y)上の4つの点を3次元空間(x,y,z)に射影するとA1(1,1,1)、A2(1,-1,-1)、A3(-1,-1,1)、A4(-1,1,-1)になり、両クラスは平面で切り分けることが可能である。例えば,z=0の平面を境界面とすることができる。 図1では、関数φ(x)を用いて個体
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural imagesDeep Learning JP
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く