kaz_uki_1014のブックマーク (945)

  • 新型「iPad Pro」のGeekBenchのベンチマークスコアが明らかに | 気になる、記になる…

    新型「iPad Pro」には「A12X Bionic」チップが搭載されていますが、同製品のGeekBenchのベンチマークスコアが明らかになりました。 GeekBenchのベンチマークは主にCPUの性能を測定するもので、新型「iPad Pro」のベンチマークスコアは、シングルコアが5,000点、マルチコアが18,000点ほどとなっており、前モデルの「A10X Fusion」チップは4,000点と9,500点だった為、シングルコアで25%、マルチコアで90%ほどパフォーマンスが向上していて、OSが違うため一概には比較出来ないものの、「MacBook Pro (Mid 2018)」に匹敵するスコアとなっています。 新型「iPad Pro」の機種IDは「iPad8,x」で、「iPad8,3」はRAMの容量が4GB、「iPad8,8」は6GBとなっており、先日に情報があった通り、「iPad8,8」

    新型「iPad Pro」のGeekBenchのベンチマークスコアが明らかに | 気になる、記になる…
    kaz_uki_1014
    kaz_uki_1014 2018/11/02
    新型「iPad Pro」には「A12X Bionic」チップが搭載されていますが、同製品のGeekBenchのベンチマークスコアが明らかになりました。 新型「iPad Pro」のGeekBenchのベンチマークスコアは、シングルコアが5,000点、マルチコアが18,000点ほ
  • 論文紹介 Understanding Batch Normalization - じんべえざめのノート

    今回は、NIPS2018に投稿されたUnderstanding Batch Normalizationという論文を読んだので、紹介していきたいと思います。この論文は、なぜバッチ正規化(Batch Normalization)が学習に効果的なのかを実証的なアプローチで検証した論文です。 この記事は、ニューラルネットワークの基礎(全結合層や畳み込み層)を理解している方を対象にしています。また、可能な限りバッチ正規化を知らない方でも理解できるようにしています。この記事を読み終わるころには、「なぜバッチ正規化が学習に効果的なのか」が分かるようになっています。 ニューラルネットの基礎は以下の記事で紹介しています。 ニューラルネットワーク入門 KelpNetCNN この記事は論文を要約したものに説明を加えたものとなっています。記事内で1人称で語られている文章については、多くが論文の主張となっています

    論文紹介 Understanding Batch Normalization - じんべえざめのノート
  • Transfer Learning - Machine Learning's Next Frontier

    Transfer Learning - Machine Learning's Next Frontier Deep learning models excel at learning from a large number of labeled examples, but typically do not generalize to conditions not seen during training. This post gives an overview of transfer learning, motivates why it warrants our application, and discusses practical applications and methods. This post gives an overview of transfer learning and

    Transfer Learning - Machine Learning's Next Frontier
  • Deep Learning for Videos: A 2018 Guide to Action Recognition

    Medical images like MRIs, CTs (3D images) are very similar to videos - both of them encode 2D spatial information over a 3rd dimension. Much like diagnosing abnormalities from 3D images, action recognition from videos would require capturing context from entire video rather than just capturing information from each frame. Fig 1: Left: Example Head CT scan. Right: Example video from a action recogn

  • Relational inductive biases, deep learning, and graph networks

    Artificial intelligence (AI) has undergone a renaissance recently, making major progress in key domains such as vision, language, control, and decision-making. This has been due, in part, to cheap data and cheap compute resources, which have fit the natural strengths of deep learning. However, many defining characteristics of human intelligence, which developed under much different pressures, rema

    kaz_uki_1014
    kaz_uki_1014 2018/06/13
    Artificial intelligence (AI) has undergone a renaissance recently, making major progress in key domains such as vision, language, control, and decision-making. This has been due, in part, to cheap data and cheap compute resources, which have fit the natural strengths of deep learning. However, many
  • https://ift.tt/2y2fU7l

    kaz_uki_1014
    kaz_uki_1014 2018/06/13
    Learning to infer Bayesian posterior from a few-shot dataset is an important step towards robust meta-learning due to the model uncertainty inherent in the problem. In this paper, we propose a novel Bayesian model-agnostic meta-learning method. The proposed method combines scalable gradient-based me
  • PD-1/PD-L1タンパクタンパク相互作用阻害剤の特許を調べてみた - rkakamilanのブログ

    この記事は 創薬 Advent Calendar 2017 - Adventar  (#souyakuac2017 hashtag on Twitter)の第23日目の記事です. 背景 今年になって抗体以外のPD-1阻害剤のアプローチの特許が徐々に増えてきている様子なので,フリーで可能な範囲で少し調べてみた経緯を紹介します.元々のきっかけは先月末偶然見つけたIncyte社の特許US20170320875A1についてのやりとりです. twitter.com PD-1 (Programmed cell death-1)と言えば今や製薬業界では知らぬものはいないほど有名なターゲットで,PD-1またはそのリガンドPD-L1の抗体医薬は画期的新薬として期待と注目を集めています.なのですが,まず非常に高価であることから医療経済面の問題が指摘されています.PD-1抗体の場合,その画期的新薬加算に加えて抗

    PD-1/PD-L1タンパクタンパク相互作用阻害剤の特許を調べてみた - rkakamilanのブログ
  • 創薬化学と特許の関わりについて - rkakamilanのブログ

    この記事は 創薬 Advent Calendar 2017 - Adventar (#souyakuac2017 hashtag on Twitter)の第17日目の記事です.日から2回に分けて創薬,特にメディシナルケミストと特許について概説したいと思います (知財部の専門ではないので用語の正確性に欠ける点はあるかと思いますがご容赦下さい). 医薬品開発における特許の重要性や他業種と比べた特殊性については今年良記事が出てましたのでそのリンクを紹介させて頂きます.下記リンクでは特許が製薬企業の売上にどれだけ重要か,特許の種類 (物質特許・用途特許・製剤特許・製法特許について),特許成立に必要な要件 (産業利用可能性・新規性・進歩性・先願)について紹介されています.ぜひご一読下さい. 医薬品の特許戦略、その重要性とは?『医薬品クライシス』著者・佐藤健太郎氏が語る、医薬研究職の世界 Vol.6

    創薬化学と特許の関わりについて - rkakamilanのブログ
  • 麻也、監督交代も意識するのは積み重ね「縦への速さも人への強さも…」 (1/2ページ) - サッカー - SANSPO.COM(サンスポ)

    日本代表DF吉田麻也は新たなポジションについて語りつつ、ガーナ戦に向けて意気込みを口にした。 日は30日、キリンチャレンジカップ2018でガーナと対戦する。吉田は新たな布陣で臨むことを認めつつ、競争やチャレンジなど様々な意味合いを持った一戦となることを強調した。 「新しいやり方、皆さん知っているように3バックなので、そこのやり方を試合のなかでどういうふうにやれるか、やれないのかを見出さないといけない。そこにチャレンジしなければいけないということと、もちろん競争もあるし、この試合の後にメンバーが決まるので全員が出し切らなければいけないし、そして同じようにワールドカップへ向けて準備をしなければいけない」 また、個人として3バックに関しては「やってみなければわからない」と話し、チャレンジの場と捉えているようだ。 「僕自身もいつもやっているのとは違うポジションなので、もちろんメンツも違えば、多少

    麻也、監督交代も意識するのは積み重ね「縦への速さも人への強さも…」 (1/2ページ) - サッカー - SANSPO.COM(サンスポ)
  • chainerの作法 その6 - Qiita

    概要 chainerの作法、調べてみた。 fizzubuzz問題、やってみた。 サンプルコード lossが、softmaxのタイプ。 import numpy as np from chainer import Variable, datasets, iterators from chainer import optimizers from chainer import Chain from chainer import training from chainer.training import extensions import chainer.functions as F import chainer.links as L class MLP(Chain): def __init__(self, n_in, n_units, n_out): super(MLP, self).__ini

    chainerの作法 その6 - Qiita
    kaz_uki_1014
    kaz_uki_1014 2018/05/03
    概要 chainerの作法、調べてみた。 fizzubuzz問題、やってみた。 サンプルコード lossが、softmaxのタイプ。 import numpy as np from chainer import Variable, datasets, iterators from chainer import optimizers from chainer import Chain from chainer import training from cha
  • 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 – 人工知能学会 (The Japanese Society for Artificial Intelligence)

    Home » リソース » 私のブックマーク » 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 機械学習における解釈性 (Interpretability in Machine Learning) 原 聡(大阪大学産業科学研究所) はじめに 近年の人工知能技術、特に機械学習の発展に伴い、これらの技術への社会的な期待が高まっている。 しかし、このような期待の高まりと同時にこれら技術への不安も高まっている。 特に、深層学習モデルを初めとする機械学習モデルが複雑なブラックボックスであるがゆえに安易に信頼できないとする懸念の声が上がり初めている。 これに対し、総務省はAIの利用の一層の増進とそれに伴うリスクの抑制のために「AI開発ガイドライン案」[1]を2017年に策定した。 このガイドライン案では、上記のような

    kaz_uki_1014
    kaz_uki_1014 2018/05/02
    【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 – 人工知能学会 (The Japanese Society for Artificial Intelligence) Home » What's New » 【記事更新】私のブックマーク「機械学習における解釈性
  • Series: YOLO object detector in PyTorch - Paperspace Blog

    Cloud hosted desktops for both individuals and organizations.

    Series: YOLO object detector in PyTorch - Paperspace Blog
  • Google の機械学習研究者による研究・エンジニアリングの進め方のメモ - MyEnigma

    TensorFlowではじめるDeepLearning実装入門 (impress top gear)posted with カエレバ新村 拓也 インプレス 2018-02-16 Amazonで検索楽天市場で検索Yahooショッピングで検索 目次 目次 はじめに メモ 参考資料 MyEnigma Supporters はじめに Goolgleのベイズ統計、機械学習の研究者である Dustin Tran氏が下記のような面白いブログ記事を上げていたので、 そのメモです。 dustintran.com メモ Google機械学習エンジニアにによるエンジニアリングのやり方。研究に使うツールを紹介していて面白い。 https://t.co/IrPU3t34Wx— Atsushi Sakai (@Atsushi_twi) 2018年3月11日 ちょっと内容をメモしてみる。まず初めに何を解くべきかを考え

    Google の機械学習研究者による研究・エンジニアリングの進め方のメモ - MyEnigma
  • Learning Deep Generative Models of Graphs

    kaz_uki_1014
    kaz_uki_1014 2018/03/13
    Graphs are fundamental data structures which concisely capture the relational structure in many important real-world domains, such as knowledge graphs, physical and social interactions, language, and chemistry. Here we introduce a powerful new approach for learning generative models over graphs, whi
  • 深層学習はガウス過程 - 作って遊ぶ機械学習。

    おつかれさまです. 僕はあまり深層学習に関して記事を書くことはないのですが,ちょっと気になった論文があったので紹介します. [1711.00165] Deep Neural Networks as Gaussian Processes 論文はGoogle Brainの研究者らによるもので,NIPS2017 Bayesian Deep Learning WorkshopICLR2018にacceptされています.実は深層学習をガウス過程(Gaussian process)で構築するのはこの論文が初出ではないのですが,論文ではベイズ学習,深層学習,カーネル法を簡略かつ包括的に説明している内容になっているので非常に参考になります. さて,「深層学習はガウス過程」というのはちょっぴり宣伝的なタイトルにし過ぎてしまったのですが,もう少しだけ正確に論文の要点をまとめると次のようになります. 背景 単一

    深層学習はガウス過程 - 作って遊ぶ機械学習。
    kaz_uki_1014
    kaz_uki_1014 2018/01/14
    深層学習はガウス過程 - 作って遊ぶ機械学習。 2018 - 01 - 13 深層学習はガウス過程 ディープラーニング ベイズで解釈 動く おつかれさまです. 僕はあまり深層学習に関して記事を書くことはないのですが,ちょっと気になっ
  • Variational Autoencoder徹底解説 - Qiita

    今回はディープラーニングのモデルの一つ、Variational Autoencoder(VAE)をご紹介する記事です。ディープラーニングフレームワークとしてはChainerを使って試しています。 VAEを使うとこんな感じの画像が作れるようになります。VAEはディープラーニングによる生成モデルの1つで、訓練データを元にその特徴を捉えて訓練データセットに似たデータを生成することができます。下記はVAEによって生成されたデータをアニメーションにしたものです。詳しくは文をご覧ください。 記事で紹介している内容のPythonコードはコチラにあります。 1. Variational Autoencoderとは? まず、VAEとはどんなものであるかを説明したいと思いますが、その前に通常のオートエンコーダーについて触れたいと思います。 1-1. 通常のオートエンコーダー オートエンコーダーとは、 教師

    Variational Autoencoder徹底解説 - Qiita
  • NIPS2017 気になった論文10本まとめてみる - May the Neural Networks be with you

    こんにちは@shunk031です。好きなべ物はニューラルネットワークです。 Advent Calendarの季節に乗じてブログを更新してみようと思います。 機械学習のトップカンファレンスであるNIPS2017が12月4日から9日にかけてアメリカのロングビーチにて行われます。先日NIPS2017のProceedingsが公開され、Acceptされた論文が読めるようになっています。 今回個人的に気になった論文10について、ざっくりとした内容を載せたいと思います。Acceptされた多数の論文の中で詳細に読むものを選ぶ基準として使ってもらえたりしたら幸いです。 目次 目次 Regularizing Deep Neural Networks by Noise: Its Interpretation and Optimization DropoutNet: Addressing Cold Star

  • Seq2Seq+Attentionのその先へ - Qiita

    自然言語処理においてSequence-to-Sequenceモデル、そしてAttentionは大きな影響を与えてきました。 いまやSequence-to-Sequence + Attentionモデルは自然言語処理とディープラーニングを語る上では欠かせない存在となりつつあります。 近年の自然言語処理ではこのSequence-to-SequenceとAttentionをベースにしたモデルが多く提案されています。 この記事ではSequence-to-Sequenceをベースとしたモデルがどういった進化を遂げているかを歴史を追いながらまとめていこうと思います。 Sequence-to-Sequenceモデル (2014) Sequence-to-SequenceモデルはSequence to Sequence Learning with Neural Networksの論文で提案され、「Seq2

    Seq2Seq+Attentionのその先へ - Qiita
    kaz_uki_1014
    kaz_uki_1014 2017/11/25
    Seq2Seq+Attentionのその先へ - Qiita 自然言語処理においてSequence-to-Sequenceモデル、そしてAttentionは大きな影響を与えてきました。 いまやSequence-to-Sequence + Attentionモデルは自然言語処理とディープラーニングを語る上では欠かせな
  • オフィスシマザキ | 島崎広彦 | 東京・青梅 - 腰痛 肩こり 頭痛 ヘルニア 坐骨神経症

    電話番号 0428-33-3939 当日など早急に治療を受けたい方は時間外でも対応いたしますので、お電話ください。朝8時から夜8時まで受けます ※ 時間外とは朝9時台 昼休み 夜7時以降です

    オフィスシマザキ | 島崎広彦 | 東京・青梅 - 腰痛 肩こり 頭痛 ヘルニア 坐骨神経症
  • ChainerでLSTM + Attentionを計算する - Qiita

    import numpy as np from chainer import Variable import chainer.functions as F import chainer.links as L ## 入力データの準備 x_list = [[0, 1, 2, 3], [4, 5, 6], [7, 8]] # 可変長データ (4, 3, 2)の長さのデータとする x_list = [np.array(x, dtype=np.int32) for x in x_list] # numpyに変換する batchsize = len(x_list) # 3

    ChainerでLSTM + Attentionを計算する - Qiita
    kaz_uki_1014
    kaz_uki_1014 2017/11/21
    ChainerでLSTMを使いたい方向けに簡単に使い方を書きます。 前準備 入力形式 import numpy as np from chainer import Variable import chainer.functions as F import chainer.links as L ## 入力データの準備 x_list = [[0, 1, 2, 3], [4, 5, 6], [7, 8]] # 可変長データ (4,