タグ

機械学習に関するteracy_junkのブックマーク (71)

  • 低解像度ビデオもすぐに高解像度に変換できる超解像アルゴリズムTecoGANがすごい

    3つの要点 ✔️ 低解像から高解像へ変換 ✔️ 時間的に一貫したフレームを生成するために双方向損失関数を採用 ✔️ 超解像度へ変換するTecoGANを提案 Learning Temporal Coherence via Self-Supervision for GAN-based Video Generation Temporally Coherent GANs for Video Super-Resolution (TecoGAN) written by Mengyu Chu, You Xie, Jonas Mayer, Laura Leal-Taixé, Nils Thuerey (Submitted on 23 Nov 2018 (v1), last revised 21 May 2020 (this version, v4)) Comments: Published by arXi

    低解像度ビデオもすぐに高解像度に変換できる超解像アルゴリズムTecoGANがすごい
    teracy_junk
    teracy_junk 2019/05/27
    高性能モザイク外し(雑な理解)
  • Detect Barcodes in an Image using Firebase MLKit

  • 不動産価格分析とモデルの作成とクローム拡張 - にほんごのれんしゅう

    機械学習不動産を予想する意味 特徴量から重要度を知ることができる EndUserにとって嬉しいことは? 線形モデルならばChrome ExtentionなどJavaScriptなどにモデルを埋め込むこともでき、意思決定の補助材料などとして、不動産の情報の正当性を推し量る事ができる 管理会社にとって嬉しいことは? 特徴量の重要度が明確にわかるため、設備投資戦略をどうするか、異常に値段がずれてしまっている案件の修正などに用いることができる データを集める ダウンロード済みのデータはこちらLink モデルを検討する ElasticNetを利用 ElasticNetはL1, L2の正則化をあわせた線形モデルで、オーバーフィットを強力に避けて、予想するアルゴリズム 1 / (2 * n_samples) * ||y - w*x||^2 + alpha * l1_ratio * ||w|| +

    不動産価格分析とモデルの作成とクローム拡張 - にほんごのれんしゅう
  • ディープラーニング=三次関数のどこがダメなのか解説する

    あるニュース記事で、ディープラーニング=最小二乗法で三次関数なんていう「伝説の画像」が出回っていたので、それに対して突っ込みつつ、非線形関数という立場からディープラーニングの当の表現の豊かさを見ていきたいと思います。 きっかけ ある画像が出回っていた。日経新聞の解説らしい。 伝説の画像になるぞこれhttps://t.co/CpeWKrHseP pic.twitter.com/qfTUVt5j7A — じゃら美少女 (@tonets) 2019年2月19日 確かにこれは伝説の画像だ。今までディープラーニングの入門書を立ち読みしていても、ディープラーニング=最小二乗法で三次関数なんて解説は見たことがない。画期的な説明だ。 しかし、この画像、ディープラーニングを少しでもやったことある人から見ればかなり違和感を覚える解説だと思う。そこを突っ込み始めるとディープラーニング、あるいはニューラルネッ

    ディープラーニング=三次関数のどこがダメなのか解説する
  • 深層学習を勉強してリアルタイム映像表現に使ってみた話

    深層学習を勉強してみたいと思った 動機は2つあって、単純に深層学習流行ってるからやってみたかった、というのと、今後グラフィックス技術を扱っていく際に深層学習は欠かせないものになりそうだと考えた、というのがありました。 例えば、最近 NVIDIA は深層学習を応用したノイズ軽減技術によってモンテカルロ系レンダラーのレンダリング時間を大幅に削減できるとしています。また、Turing 世代の GPU では深層学習を応用した超解像技術によって高解像度動作時のパフォーマンスを大幅に改善できるとしています。ただ僕には、これらの技術がどれほど効果的なものなのか、また当に実用的なものなのか、判断することができませんでした。 このような深層学習技術の応用は今後様々な場面で進められていくことと思われますが、そういった技術を評価していくにあたって深層学習の基礎知識を備えておくことが必要になると感じています。

    深層学習を勉強してリアルタイム映像表現に使ってみた話
  • 私の会社の機械学習経験ゼロの「ディープラーニングおじさん」が会社のAI戦略を動かすまで - karaage. [からあげ]

    ディープラーニングおじさん 私の会社には「ディープラーニングおじさん」がいます。「います」といっても私が勝手に一人で心の中でそう呼んでいるだけですが…ともかく、今日はその「ディープラーニングおじさん」が、機械学習経験ゼロから、最終的に会社を動かすまでの華麗なる軌跡を紹介したいと思います。 なお、会社に関する情報は、私の都合である程度、虚実入り混じった情報になることご了承ください。今回の話で伝えたいことに関しては、影響は無い範囲とは思っています。 ディープラーニングおじさんの華麗なる軌跡 自分のツイートを「ディープラーニングおじさん」で検索したら、最初に引っかかったのが2016年10月ころでした。もう1年半くらい前ですね。 自分も個人で少しだけディープラーニング試したりしてるので、ディープラーニングおじさんに少しだけ自分の知ってる情報を提供してみたけど、おじさん何も聞かずに特攻しててワロタw

    私の会社の機械学習経験ゼロの「ディープラーニングおじさん」が会社のAI戦略を動かすまで - karaage. [からあげ]
    teracy_junk
    teracy_junk 2018/10/09
    ものすごいバイタリティーだ
  • 「やさしく学ぶ 機械学習を理解するための数学のきほん」を執筆しました · けんごのお屋敷

    私が執筆した書籍 やさしく学ぶ 機械学習を理解するための数学のきほん がマイナビ出版から Amazon で 2017/9/20 より発売されます。Amazon 上では既に予約可能になっていますので、興味のある方は是非とも手に取ってみてください。 書は、以前よりこのブログ内で公開していた「やる夫で学ぶ機械学習シリーズ」というシリーズ物の記事をベースとして、加筆・修正を加えたものになります。ブログの記事がベースになってはいますが、追加で書いた分の方が多く、お金を出して買ってもらえるクオリティにするために、より丁寧な説明を心がけて書きました。元記事は「やる夫」と「やらない夫」というキャラクターを登場人物として、機械学習の基礎を面白おかしく丁寧に解説していくものでしたが、書籍化するに当たって「やる夫」と「やらない夫」をそのまま使うわけにもいかなかったので、プログラマの「アヤノ」とその友達で機械学

    teracy_junk
    teracy_junk 2017/09/11
    『元記事は「やる夫」と「やらない夫」というキャラクターを登場人物として、機械学習の基礎を面白おかしく丁寧に解説していくものでした』
  • Webエンジニアがやりたいことドリブンで機械学習に入門してみた - Qiita

    概要 普段Ruby on RailsでWebアプリの開発をやっているWebエンジニア機械学習に挑戦した話です。 普通のWebエンジニアがこういった具合で機械学習を学ぶと、このくらいの期間でこのくらいのことができるようになる。 みたいなひとつの例として参考になるかもしれません。 とにかく機械学習楽しくてうっひょーなので仲間を増やしたいという気持ちもあって記事を書くことにしました。 知り合いもほとんどWebエンジニアなんで、機械学習やってる人ってあんまり周りにいないんですお(´・ω・`) この記事を読んで「これなら自分でもいけそう!」と、挑戦しようと思ってくれる人が一人でもいれば嬉しいです。 機械学習について踏み込んだことは書きません(書けません)。 対象読者 機械学習に興味があるWebエンジニア 筆者のバックグラウンド 仕事: 4年くらいRuby on RailsでWebアプリケーションを

    Webエンジニアがやりたいことドリブンで機械学習に入門してみた - Qiita
  • ベクトル型コンピュータで、機械学習を高速実行

    「疎行列」に着目した演算技術と通信技術を開発 NECは2017年7月、ベクトル型コンピュータに適した機械学習向けデータ処理技術を開発したと発表した。従来の同等システムに比べて、機械学習の実行時間は50倍と極めて速い。 NECは、数値計算領域を得意とするベクトル型コンピュータの開発に注力している。今回の技術は、機械学習など大規模データ分析の領域にも、その応用分野を広げていくために開発した。 ベクトル型コンピュータは、複数の処理を同時に実行することで高速化を実現している。このため、一回の処理量が十分に大きくないと効率は悪くなる。ところが、機械学習で用いられるデータ「疎行列」は、ゼロでない部分の数が行ごとに大きく異なる。このため、単純に行単位で処理を行うと、ゼロでない部分が少ない行では、処理効率が低下するという課題があった。 そこで今回は、ゼロでない部分の数に応じて、列単位で処理を行うフォーマッ

    ベクトル型コンピュータで、機械学習を高速実行
    teracy_junk
    teracy_junk 2017/07/05
    『機械学習の実行時間は50倍以上になる』?
  • ディープラーニングを用いて「写真の見た目の特徴」を別の写真に転送してしまう「Deep Photo Style Transfer」

    ディープラーニングを用いてベースとなる画像に他の画像のスタイル(見た目の特徴)を付与することで、新しい画像を生成することができる「Deep Photo Style Transfer」が、ソフトウェア開発プロジェクトの共有プラットフォームであるGitHub上で公開されています。 GitHub - luanfujun/deep-photo-styletransfer: Code and data for paper "Deep Photo Style Transfer" https://github.com/luanfujun/deep-photo-styletransfer これまでも、ディープラーニングなどを用いてベースとなる画像に他の画像のスタイルを転送する、という試みが存在したそうです。しかし、ベース・スタイルの両方に写真を使っても、出力した画像が写真っぽくない「絵のようなゆがみ」をも

    ディープラーニングを用いて「写真の見た目の特徴」を別の写真に転送してしまう「Deep Photo Style Transfer」
  • 例の機械学習コースが良いらしいと知りながらも2年間スルーし続けたがやはり良かったという話 - Qiita

    先日、オンライン学習サイトCourseraの"Machine Learning"コースを修了しました。これが最高に勉強になったわけですが、機械学習に興味があって情報収集を始めてる人にとって、「Courseraの機械学習コースがおすすめですよ」という話は 「はい、知ってます」 という感じではないでしょうか。 (たとえば、Qiitaで検索してみると、以下のような同コースに関連する超人気記事が出てきます) 数学を避けてきた社会人プログラマが機械学習の勉強を始める際の最短経路 - Qiita 機械学習をゼロから1ヵ月間勉強し続けた結果 - Qiita 僕もそんな感じで、幾度となく人や記事に同コースを薦められたりしつつ、たぶん2年ぐらいスルーし続けてきたと思います。 しかし約2ヶ月前、ひょんなきっかけから講座を始めてみて、やはり評判通り最高だったと思うと同時に、僕と同じような感じでこのコースが良い

    例の機械学習コースが良いらしいと知りながらも2年間スルーし続けたがやはり良かったという話 - Qiita
  • こんな私でもニューラルネットワークをスクラッチで実装できました(30歳 男性) - seri::diary

    この記事はトレタ Advent Calendar 2016の22日目です。 21日目はswdhの ActiveRecordオブジェクトを関連ごとシリアライズしてデシリアライズするでした。 スナップショット的にその時点のモデルを関連モデル含めて保存したい、っていう要望はBtoBやってると結構遭遇しますね。テーブルをちゃんと正規化すればするほど難しくなるやつなのでgem化されてるとありがたいです。 さて、この記事ではゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装を読んでpythonに入門するところから初めてニューラルネットワークを実際に実装して見た所感を記述します。平たく言えば読書感想文です。 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 作者: 斎藤康毅出版社/メーカー: オライリージャパン発売日: 2

    こんな私でもニューラルネットワークをスクラッチで実装できました(30歳 男性) - seri::diary
    teracy_junk
    teracy_junk 2016/12/22
    『「どのくらい「ゼロ」でも大丈夫か?体を張って試してみた」結論から言えば、高校数学なんて忘却の彼方という人でも全然問題無いと言える。』
  • 機械学習や人工知能を今年こそしっかり勉強したいと決意するエンジニアにオススメな10冊 - マーケティングメトリックス研究所/MARKETING METRICS Lab. – コミュニケーションの最適化を考える。マーケティングメトリックス研究所

    昨年は「今年こそデータサイエンティストになると決意したあなたが読むべき10冊」と題して、年末年始に読んで欲しいを紹介しました。 今年はバズワードだった人工知能機械学習を、いよいよ実装しなければならなくなったエンジニアを対象に、これ読んだらいいと思いますよというを紹介します。 そもそも「人工知能」って何やねん? いま最も人気の学会は人工知能学会らしいですが、そもそも「人工知能」って学術的にはどう定義されているの?と思われている方向けに、まずは読んで欲しい1冊です。 人工知能学会誌での連載解説が大幅に加筆修正された、とあります。 人工知能とは (監修:人工知能学会) 松尾 豊 中島 秀之 西田 豊明 溝口 理一郎 長尾 真 堀 浩一 浅田 稔 松原 仁 武田 英明 池上 高志 山口 高平 山川 宏 栗原 聡 近代科学社 2016-05-30 人工知能分野で最先端の研究を行う研究者13人に

    機械学習や人工知能を今年こそしっかり勉強したいと決意するエンジニアにオススメな10冊 - マーケティングメトリックス研究所/MARKETING METRICS Lab. – コミュニケーションの最適化を考える。マーケティングメトリックス研究所
  • Pythonで機械学習/Deep Learningを始めるなら知っておきたいライブラリ/ツール7選

    プログラミング言語「Python」は機械学習の分野で広く使われており、最近の機械学習/Deep Learningの流行により使う人が増えているかと思います。一方で、「機械学習に興味を持ったので自分でも試してみたいけど、どこから手を付けていいのか」という話もよく聞きます。連載「Pythonで始める機械学習入門」では、そのような人をターゲットに、Pythonを使った機械学習について主要なライブラリ/ツールの使い方を中心に解説していきます。 連載第1回は、ライブラリ/ツール群の概要説明からです。各ライブラリ/ツールの詳細な使い方や実用上のテクニックは連載第2回以降で解説していきます。ここで挙げるライブラリ/ツール群は「普段、筆者が仕事で使っているもの」という基準で選定されています。そういう意味で全く網羅的ではなく、独断と偏見であることを自覚していますので、ご了承ください。 連載初回である稿で

    Pythonで機械学習/Deep Learningを始めるなら知っておきたいライブラリ/ツール7選
  • DeepLearningで上司を認識して画面を隠す - Qiita

    背景 仕事をしているとき、業務に関係ない情報を閲覧していることって誰でもありますよね? そんなときに背後にボスが忍び寄っていると気まずい思いをします。もちろん急いで画面を切り替えれば良いのですが、そういう動作は逆に怪しまれることになりますし、集中しているときは気がつかないこともあります。そこで怪しまれずに画面を切り替えるために、ボスが近づいてきたことを自動的に認識して画面を隠すシステムを作ってみました。 具体的にはKerasを用いてボスの顔を機械学習し、カメラを用いて近づいてきたことを認識して画面を切り替えています。 ミッション ミッションはボスが近づいてきたら自動的に画面を切り替えることです。 状況は以下のような感じです。 ボスの席から私の席まではだいたい6,7mくらいです。ボスが席をたってから、4,5秒で私の席に到達します。したがって、この間に画面を隠す必要があるわけです。時間的余裕は

    DeepLearningで上司を認識して画面を隠す - Qiita
  • 対数変化率の話。 - とあるMetaTraderの備忘秘録

    とある匿名希望の読者様から、対数変化率(対数価格比?)の計算式が分からないと質問がありましたので、簡単に説明しておきます。。 複数の銘柄の値動きの傾向を比較したい場合、価格の変化量(=今日の終値-昨日の終値)をそのまま扱うと不便です。 株式を思い浮かべると分かるように、100円の株が150円に上がるのと、1000円の株が1050円に上がるのでは、価格の変化量は同じ50円でも、それを同列にみなすのは無理があります。これを価格の変化率(=今日の終値÷昨日の終値)で考えると、 100円 -> 150円 1.5倍、50%増 1000円 -> 1050円 1.05倍、5%増 となり比較しやすくなります。 (100円の白株と1000円の赤株はそもそも同列に比べるべきでない..というツッコミは無しで..^^;; ところが、価格の変化率を採用すると、100円の株が150円に上がり、再び100円に戻った時、

    対数変化率の話。 - とあるMetaTraderの備忘秘録
  • 取り急ぎpix2pixで遊んでみた(追記あり) - Qiita

    概要 先日発表されたpix2pixが楽しそうだったので実際に動かしてみた。 対象を絞れば学習画像が500枚程度でもそれなりに動く。 結論:GANすごい。 はじめに pix2pixとは、ざっくりと言えば、2画像間に潜む画像変換をDNNで表現してしまおう!というものです。変換前後の画像さえ用意できれば大体どんな変換でも対応可能らしく、例えば以下のようなことが可能らしいです。 航空写真 → 地図画像 モノクロ画像 → カラー画像 線画 → カラー画像 (上記すべて逆も可能) 何やら万能っぽい雰囲気!素晴らしいことにコードが公開されている(torchだけど)!しかも自前画像でも簡単に試せそう! ということで試してみました。 データ flickrから収集したラーメン画像(1,000枚)を使用。多少のゴミは無視で。公式のソースコードに合わせて、各画像を中心でクロップ&リサイズしておき、学習画像と評価画

    取り急ぎpix2pixで遊んでみた(追記あり) - Qiita
    teracy_junk
    teracy_junk 2016/12/02
    すごそう
  • Clojureで0からのニューラルネット構築と隠れ層の観察 - Qiita

    もともとの動機は、LSTMなどのRNN周辺分野のアルゴリズムをしっかりと理解したいことでした。 その一方で、ニューラルネット関連については、仕組みはなんとなく理解していたのですが、隠れ層の振る舞いや学習のアルゴリズム等をしっかり理解しきれているかどうかの自信がなかったので、0から作ってみることにしました。 ちなみに、0から作るというのは、既存の機械学習ライブラリを使わない、という程度の意味です。 勉強目的でもなければ、既存のOSSの機械学習ライブラリを使ったほうが圧倒的に楽ですし、学習も早いでしょうし、バグに悩まされる可能性は低いと思いますし、そこだけ注意してください。。 将来的にはRNN、LSTMの順に構築していきたいのですが、この記事ではフィードフォーワードモデルを構築し、隠れ層の挙動を確認するところまでにしておきたいと思います。 また、既にPythonを用いたサンプルコードがたくさん

    Clojureで0からのニューラルネット構築と隠れ層の観察 - Qiita
  • 交差エントロピー(Cross Entropy) - neuralnetの日記

    2016 - 05 - 17 交差エントロピー(Cross Entropy) ※ MNIST for ML Beginnersの数学的な意味合い の続きです。 MNISTは、手書きの文字が0,1,2,..,9までの数字のうち、どの数字になるかを決めるというものでした。 例えば正解が2、つまり だったとして と のどちらがより正解に近いかを決めるための尺度として、交差 エントロピー というものを採用しています。 zとyの交差 エントロピー の定義は以下の通りであり、この値が小さいほど好ましい状態です。 正解がOne Hot(1つだけ100%で残りが0%)な確率分布なので、2項目以外は無視され、 となります。( は、 のj番目の変数を示します。) 上記のような簡単な計算で出てくる値が何を示すのか考えてみたいと思います。 エントロピー と自己情報量 ある確率分布 の エントロピー とは、各要素

  • MNIST for ML Beginnersの数学的な意味合い - neuralnetな日記

    Tensor flowの初めの一歩のチュートリアルであるMNIST For ML Beginners について、数学的な意味合いを書いてみようと思います。 (ブログに不慣れなもので、修正/継ぎ足しながら公開していくことをお許しください) まず、このチュートリアルで実行していることは、 入力がn次元の配列 (は実数)が複数個あった時 、個々の出力 ()を得る写像を用意して、出力が 個々のに対する解 (あるz=1以外はz=0) に近い結果を得れるように、Fを最適化することです。 ここで、の各要素 は実数と書きましたが、これは概念上の話であり、プログラムの実装上ではfloatになります。以後、集合(つまり配列)の要素は数学上は実数ですが、プログラム上はfloatであると考えて下さい。は、となるm個の(実数の)集合です。また任意の要素は0以上であり、したがって、は0から1までの値をとることになりま

    MNIST for ML Beginnersの数学的な意味合い - neuralnetな日記