Deep Learningを利用したAI開発に これから携わる方、 既に携わっている方、 こんな悩みはありませんか? Pythonや数式を学ばないといけない ネットワーク構造やパラメータを変更するなどコーディングだと試行錯誤に時間がかかる 学習した何十種類ものニューラルネットワークの管理に苦労している ニューラルネットワークのチューニングを自動化したい 開発環境の構築に手間と費用がかかる
こんにちは、スマートニュースの徳永です。深層学習業界はGANだとか深層強化学習だとかで盛り上がっていますが、今日は淡々と、ニューラルネットワークの量子化の話をします。 TL;DR パラメータだけを量子化するのであれば、ほぼ精度を落とさずに、パラメータのデータ容量は1/16程度にまで削減できる パラメータ、アクティベーション、勾配のすべてを量子化し、推論だけでなく学習までもビット演算だけで実現する研究が進んできている 現在は深層学習 = GPU必須というぐらいの勢いがあるけど、量子化の研究が進むと、今後はどうなるかわからないよ はじめに 情報理論における量子化とは、アナログな量を離散的な値で近似的に表現することを指しますが、本稿における量子化は厳密に言うとちょっと意味が違い、十分な(=32bitもしくは16bit)精度で表現されていた量を、ずっと少ないビット数で表現することを言います。 ニュ
How Convolutional Neural Networks Work Get an overview of what is going on inside convolutional neural networks, and what it is that makes them so effective. By Brandon Rohrer, Staff Machine Learning Engineer at LinkedIn on August 31, 2016 in Brandon Rohrer, Convolutional Neural Networks, Image Recognition, Neural Networks Nine times out of ten, when you hear about deep learning breaking a new tec
活性化関数(かっせいかかんすう、英: activation function)もしくは伝達関数(でんたつかんすう、英: transfer function)とは、ニューラルネットワークのニューロンにおける、入力のなんらかの合計(しばしば、線形な重み付け総和)から、出力を決定するための関数で、非線形な関数とすることが多い。 概要[編集] よく使われているモデルでは、人工ニューロンは1つ以上の入力を受け取り(1つ以上の樹状突起に相当)、それらの重み付け総和から、活性化関数を通して、出力を生成する。 数式では、以下のが活性化関数。 古典的にはステップ関数が提案された。他にもいろいろと考えることはできる。1986年のバックプロパゲーションの発表以降はシグモイド関数が最も一般的だった。現在はReLU(ランプ関数)の方が良いと言われる[1]。活性化関数は単調増加関数が使われる事が多い。必ずしもそうしな
“I need to know a bit about your background,” says Geoffrey Hinton. “Did you get a science degree?” Hinton, a sinewy, dry-witted Englishman by way of Canada, is standing at a white board in Mountain View, California, on the campus of Google, the company he joined in 2013 as a Distinguished Researcher. Hinton is perhaps the world’s premier expert on neural network systems, an artificial intelligenc
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く