Blue Origin has successfully completed its NS-25 mission, resuming crewed flights for the first time in nearly two years. The mission brought six tourist crew members to the edge of…
この記事はごちうさ住民 Advent Calendar 2014の第26日目の記事です(勝手に参加。 ひと目で尋常でない解析ネタだと見抜いたよ 「チノちゃん、スリーサイズ教えて」 「嫌ですよ」 (´・ω:;.:... データを愛した少女と解析に愛された少女 「というわけでお馴染みのスリーサイズ解析をするよっ。 まずは公式設定から年齢と身長だけ入手できたから アイマスデータセットと機械学習を用いて年齢と身長から、体重、スリーサイズを推定するよっ。 主成分分析をする ブラのサイズ推定をする SPADE法で分化解析をする Trajectory detection で成長度推定をする viSNEによる次元削減とクラスタリングをする という感じでやろう」 初めてデータを扱った日の事憶えてる? 他人のデータでスリーサイズ推定しようとしたわよね 「アイマスデータセットは年齢、身長、体重、スリーサイズの6
先日書いたOpenCVでアニメ顔検出をやってみた - kivantium活動日記の続編です。アニメ顔を検出するところまではうまくいったので、今度はキャラの分類をやってみようと思います。環境はUbuntu 14.10です。 ひと目で、尋常でない検出器だと見抜いたよ まずは分類に使う学習用データを用意します。投稿から半年以上経つのにまだランキング上位に残っている驚異の動画ご注文はうさぎですか? 第1羽「ひと目で、尋常でないもふもふだと見抜いたよ」 アニメ/動画 - ニコニコ動画を使います。 動画のダウンロード Ubuntuならaptで入れられるnicovideo-dlというツールを使います。 sudo apt-get install nicovideo-dl nicovideo-dl www.nicovideo.jp/watch/1397552685その後avidemuxでOP部分だけの動画を
データ分析から導き出されたインサイト無しにAI(人工知能)の活用は始まりません。私たちは、各業界知識とデータ・アナリティクス技術を駆使しデータドリブン経営を強力に支援します。 データ、アナリティクス、AIは企業にとって競合他社との差別化を図るかつてないほど大きな要因になっています。今日の経営幹部が効率を向上しながら新たな収益源を開拓し、新しいビジネスモデルをタイムリーに構築する方法を模索する中、価値を生み出し成長を続ける企業には「データ活用」という共通項があります。私たちは、無数のデータから企業にとって本当に必要なデータを活用するための方法を知っています。 将来を見据えたオペレーション体制を備えている企業の半数以上(52%)は、すでにデータとアナリティクスを大規模に活用しています。データとAIに関する取り組みをビジネス戦略に沿って実施することで投資利益率を迅速に最大化し、最終的にはAIをビ
マイクロソフトは、機械学習サービスをクラウドで提供する「Microsoft Azure Machine Learning」の公開プレビューを来月から開始すると発表しました。 Microsoft Azure Machine Learning combines power of comprehensive machine learning with benefits of cloud - The Official Microsoft Blog - Site Home - TechNet Blogs 機械学習とは、例えばECサイトでの購買履歴を基にしたおすすめ商品の提示、金融取引での取引分析による不正行為の発見、あるいは工作機械の稼働履歴分析による故障時期予想、などの分野で利用されています。 しかし機械学習を実現するには、まず大規模なデータ分析基盤を構築し、そこに機械学習のアルゴリズムを実装した
[GTC 2014]賢い人工知能はGPUで作る。NVIDIAが取り組むGPGPUの新たな活用分野「機械学習」とは何か? ライター:西川善司 ビジュアルコンピューティングについて語るJen-Hsun Huang氏(Co-Founder and CEO, NVIDIA)。左手にあるのは次世代GPU「Pascal」のモジュールだ NVIDIA主催のGPU技術者会議「GPU Technology Conference 2014」(以下,GTC 2014)。そこで同社のJen-Hsun Huang(ジェンスン・フアン)CEO氏が行った基調講演から,本稿では,「機械学習」(Machine Learning)に関する話題をレポートしたい。 直接ゲームに関係する話ではないうえ,少々難しい話題でもあるのだが,進化し続けるGPUが現在,そして将来にどういった用途に使われるかのヒントにもなると思うので,ぜひチェ
最近にわかにword2vecが流行っています。ので、乗っかってみました的記事です。 理論に関してはあまり詳しくしらないので、印象だけで語っているかもしれません。何かありましたらTwitterかコメント等でご指摘いただけますと幸いです。 ちなみに、失敗した話が多いです。 word2vecと単語のベクトル表現 word2vecは、機械学習の分野で使われる、ニューラルネットというモデルを使ったツール/ライブラリです*1。名前の通り、wordをvectorにします。vectorにする、というのは、ベクトル表現を獲得するということで、意味(みたいなもの)の獲得というか、素性の獲得というか。 単語のベクトル表現の獲得自体は、別にword2vecにしかないわけではありません。言い換えると、昔からあります。LDAを使って単語のトピック分布のようなものを学習したり(vingowでやりました)。余談ですが、こ
「人間のような知能の実現」という大きな目標に大勢で取り組むには、 途中の達成度が判断できるようなわかりやすいロードマップが必要です。 全脳アーキテクチャを拠り所としたアプローチは、 構成要素となる脳の器官がはっきりしているため、 純粋に思弁的に知能を目指すアプローチと比べて、 ロードマップが作りやすいという利点があります。 脳の主要な器官のモデルが不完全ながら出そろっているので、 次は各器官がどう連携するかを解明していくことになります。 取り急ぎ、たたき台として以下ようなロードマップを考えてみました。 私が考える優先度順に並べてみましたが、ある程度は同時並行で取り組める課題だと思います。 教師なし学習・認識(大脳皮質モデル) 階層型強化学習(皮質・大脳基底核連携モデル) 思考・ナビゲーション(皮質・大脳基底核・海馬連携モデル) 言語理解・発話(言語野モデル) 滑らかな運動(皮質・小脳連携モ
ビッグデータ活用:その分析実装として注目されるMahout 長年蓄積した企業内データや、ソーシャルネットワークサービス、センサ端末から集められる膨大なデータを活用し、企業における利益向上やコスト削減などに活用する動きが活発になってきました。 データの分析手段として最近とみに注目されている技術として「機械学習」があります。大規模データの処理を得意とする大規模分散処理基盤「Apache Hadoop」の強みを生かし、簡単に機械学習を行うためのライブラリが、「Apache Mahout」(以下、Mahout)です。 本稿ではMahoutを用いたデータ分析の例として「文書分類」を取り上げます。マシンを用いて分析実行する際の手順や陥りがちなポイント、チューニング方法の一例を紹介します。 Mahoutとは? MahoutとはApache Software Foundationが公開しているOSSの機械
皆様こんにちは。今日も元気に自分を見つめ直していますか?自分を見つめ直す手段として、過去の自分の発言を見返すことは有用だと考えられます。たとえば、Twitter を使っている方ならば、その過去ログを用いることが考えられるでしょう。Twitter の過去ログはライフログとして機能し、それを用いることにより、過去の出来事のみならず、考え方、感じ方、ふとした着想、などなどを読み取ることができます。しかしながら、過去のツイートを全部見返すのは非常に面倒ですね。たとえば僕のアカウントはトータルで4万ツイート以上あります。これは非常にめんどい。Twitter は情報量多くてだるいよね問題については、従来「再生核 Hilbert 空間を用い、脱ベイズ確率主義に立脚したあまりだるくないツイッター」などの試みが行われてきましたが、今なおその面倒さを軽減する手段については十分とはいえません。本記事では、過去の
はじめに 次元圧縮がマイブーム化しているので、最近はやりのAutoEncoderで遊んでみる。 べ、別に深い何かのためにやろうとしてるわけじゃn AutoEncoderとは 入力と出力が近くなるように学習するニューラルネットワーク (枠組みをさすだけでニューラルネットワークに限らないのかも?) 基本は、入力層、隠れ層、出力層の3層で構成し、教師信号は入力信号と同じにして学習させる 特徴や内部表現の構成を学習することができる 入力&出力の次元より隠れ層の次元を小さくして構成する 入力セットの圧縮された表現を学習する意味で、(非線形な)次元圧縮器とみなせる AutoEncoderの種類 いくつか種類があるぽい。名前だけメモしておく。 Basic AutoEncoder Regularized AutoEncoder Sparse AutoEncoder Denoising AutoEncode
みなさん、次のようなことができたらいいと思ったことはありませんか? 「顧客ごとに、適したタイミングと内容で、DMを送信できたら……」 「CGM系サイトへの誹謗中傷なんかのスパム投稿を自動識別できたら……」 「サーバの負荷が高まるタイミングを事前に予測できたら……」 一見するとこれらは実現していることがまったく異なりますが、じつはある共通点があります。それは「データを分析し、その結果を活用している」という点です。 Data is Kingの考えから得られるメリット かつてAmazonに在籍していたRonny Kohaviは「Data is King at Amazon」と言い、データの重要性を説きました。事実、Amazonはユーザの購買履歴から商品のレコメンデーションを行い、ユーザのサイト内の遷移履歴やクリック率からサイト構造の改善を行うなど、データを徹底的に活用していることで知られています
岡野原です。Deep Learningが各分野のコンペティションで優勝し話題になっています。Deep Learningは7、8段と深いニューラルネットを使う学習手法です。すでに、画像認識、音声認識、最も最近では化合物の活性予測で優勝したり、既存データ・セットでの最高精度を達成しています。以下に幾つか例をあげます。 画像認識 LSVRC 2012 [html] 優勝チームスライド [pdf], まとめスライド[pdf] Googleによる巨大なNeuralNetを利用した画像認識(猫認識として有名)[paper][slide][日本語解説] また、各分野のトップカンファレンスでDeep Learningのチュートリアルが行われ、サーベイ論文もいくつか出ました。おそらく来年以降こうした話が増えてくることが考えられます。 ICML 2012 [pdf] ACL 2012 [pdf] CVPR
Support Vector Machines (Information Science and Statistics) 作者: Ingo Steinwart,Andreas Christmann出版社/メーカー: Springer発売日: 2008/08/29メディア: ハードカバー クリック: 17回この商品を含むブログを見る libsvm LIBSVM -- A Library for Support Vector Machines R言語でSVM(Support Vector Machine)による分類学習 - Yuta.Kikuchiの日記 前回RでのSVMを簡単に紹介しましたが、今日はlibsvmを利用したirisの分類学習を行いたいと思います。libsvmは導入がめちゃくちゃ簡単なところが売りだと思います。zipをlibsvmサイトからdownloadして展開してgmakeで
第1章 「序論」のための確率用語 第2章 「確率分布」のための数学 第3章 「線形回帰モデル」のための数学 第4章 「線形識別モデル」のための数学 第9章 「混合モデルと EM」の数式の補足 第10章「近似推論法」の数式の補足 第11章「サンプリング法」のための物理学 ■まえがき サイボウズ・ラボでは「言語処理に必要そうな機械学習の基礎知識を身につける」という目標のもと,2011年の2月から11月にかけて当時シュプリンガー・ジャパン(現在は丸善)から出版されていた「パターン認識と機械学習」(PRML)を輪読する社内読書会をやっていました. 「あの本」を10ヶ月足らずで一通り(すべての章ではありませんが)読みきったと言えば,そのスパルタな様子が想像つくのではないでしょうか.しかも,専門の学生ではない社会人が仕事の合間に! 当然スムーズに読み進めるはずもなく,いろんなところでつまずくことになり
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く