PyTorchにおける学習時のデータ拡張の方法について見ていきます。 データ拡張を行うためのtorchvision.transformsについて説明した後に、学習時のコードのどこに追加すればデータ拡張が行われるのか説明します。
1. PyTorch3D「PyTorch3D」は、3Dグラフィックス向けの機械学習ライブラリです。「TensorFlow Graphics」「NVIDIA Kaolin」がTensorFlowをサポートするのに対し、「PyTorch3D」はPyTorchをサポートします。 2. 3Dグラフィックス向けの機械学習3Dグラフィックス向けの機械学習の多くは、「2D画像」から「3D世界」の推論を行います。 学習は、「変換関数」の他に「レンダリング」も含めて誤差逆伝播を行い、最適値を見つけ出すことができます。 「3D再構成」は、2D画像から3Dモデルを生成するタスクです。「入力画像」を「変換関数」で3Dモデルに変換し、それをレンダリングで2D画像に変換します。これが元の物体のシルエットに近くなるように、「変換関数」を更新します。 3. チュートリアルの内容今回は、「球体メッシュ」を関数で変換した「予
SB-AI Advent Calendar 2019 の5日目です。 よろしくお願いします。 概要 自分の顔のどのパーツがどの芸能人に似ているのかを、grad-camを使って調べます。 流れとしては、 数種類の芸能人を分類するモデルを作成する 自分の顔写真をモデルにかけて、誰に一番似ているのかを調べる grad-camで顔のどのパーツを根拠に分類しているのか調べる という感じです。 分類する芸能人は、私が似ていると言われた事がある、 - NON STYLE 井上 - アンジャッシュ 渡部 - 星野 源 - 織田信成 にします。(ファンの人いたらごめんなさい) (追記) なお、全てのコードと詳細を(pytorch_face_gradcam)にまとめたので試してみたい方は見てみてください。 準備 顔認識の学習済みモデルを探しているときに、顔の自動切り抜きもサポートしている素敵なものを見つけたの
0.はじめに 今までKerasを使っていた人がいざpytorchを使うってなった際に、Kerasでは当たり前にあった機能がpytorchでは無い!というようなことに困惑することがあります。 KerasではcallbackとしてEarlyStoppingの機能が備わっていますが、Pytorchではデフォルトでこの機能は存在せず、自分で実装する必要があります。 今回はそれを実装したので共有しておきます。 参考:KerasのEarlyStopping 1.EarlyStoppingって何なのか? 本記事を見るような方はすでにご存じかもしれませんが、一応説明します。 ・そもそも何Epoch学習を回せばいいのかなんて初見ではわからない ・Epoch数を重ねるたびにlossは下がるが、訓練データに過学習する可能性がある ・せっかくlossが下がっても、そのまま放置しすぎるとlossが上がっていってしま
[1] 本サイトでは、「PyTorch 公式チュートリアル(英語版 version 1.8.0)」を日本語に翻訳してお届けします。 [2] 公式チュートリアルは、①解説ページ、②解説ページと同じ内容のGoogle Colaboratoryファイル、の2つから構成されています。 両者は基本的には同じ内容です。本サイトでは 「Google Colaboratoryファイル」で、チュートリアルの日本語訳を用意しております(未完成分は順次公開いたします)。 [3] 本サイトのチュートリアルの閲覧および実行は、Google Colaboratory環境を前提とします。 (本サイトのライセンスはこちらとなります) [4] 本サイトに掲載している、日本語チュートリアルをまとめて配置したGitHubはこちらとなります。 [0] 目次(table of contents) 日本語解説へ [1] テンソル(T
はじめに GW今年はどこへも行けないのですね、、、。せっかくなので記事を書いていきたいと思います(毎日1記事目標に)。PyTorchを普段触っているのですが、細かいところをなんとなくで今まで過ごしてきたので、今回しっかりまとめていきたいと思います。自分の備忘録になっていますが、少しでも参考になればと思います。 この記事の対象者 .copy(), .detach(), .bachward()がよくわかっていない方 nn.Conv2dのweightやbiasの取得ってどうやんの? model.eval()って結局何してる?って方 torch.no_grad(), torch.set_grad_enabled()の区別がわからない方 F.relu, nn.ReLUの違いなんやねんって方 コアなネタが多いですが、よかったら参考にしてみてください。 この記事の内容 1. Tensorの操作テクニック
環境 ・Windows 10 pro 64bit ・Python 3.7.9 ・Anaconda 4.8.5 ・PyTorch 1.6.0+cpu ・Pyinstaller 4.0 はじめに Pythonスクリプトをexe化する場合に、よく使われるものとして、Pyinstallerというものがあります。ここでは、PyTorchで文書分類器を作ったスクリプトをexe化したときに、起こったエラーの対処方法を記載していきます。 Anacondaを使っている人へ ライブラリのインストールは、pipとcondaが混在しないようにしてください。また、exe化する際は、exe化するスクリプトに必要なライブラリのみをインストールした仮想環境を作ることをおすすめします。仮想環境の作り方は以下の通りです。 以下のPyTorchのフォーラムにpipでインストールするようにと書かれていましたので、私は全てpipで
こんにちは、Dajiroです。前回の技術記事を書いてからだいぶ日が空きました。本ブログでは機械学習に関する幅広い技術を解説しようと目論んでいるので、まだ扱ったことのない自然言語処理のネタををじっくりコトコト仕込んでいました。本記事では 単語埋め込み 語順の組み込み Self-Attention に焦点を当てながら、2値分類の一連のワークフローの解説と(若干の)実装をご紹介します!実装はこちらの書籍を参考にしました。2値分類を行うためのTransformerのエンコーダ部分が紹介されています。 つくりながら学ぶ!PyTorchによる発展ディープラーニング 作者:小川 雄太郎発売日: 2019/07/29メディア: Kindle版 Transformerとは? 仕組みの概要 全体の流れ 1. 文章のベクトル化 2. 語順情報を追加 3.アテンションの計算 二値分類と結果の解釈 所感 Trans
この記事では、Neural Topic Modelingについて調べたことをまとめます。 個人的解釈が多少含まれる記事となっていますので、気になる点がありましたら記事へのコメントやTwitterでリプライをいただければと思います。 Twitter : @m3yrin TL;DR 従来の確率生成モデルとしてのトピックモデルに対して、Neural Topic Modeling(NTM)の強みを説明します。 PyTorchによってNTMの簡易な実装を行い、コードを公開します。 従来手法としてLDAでTopic Modelingを行い、NTMとの比較を行います。 トピックモデルとは トピックモデルは、文書集合で話題となっているトピックを、同じ文書で現れやすい語彙として抽出する手法です。 文書のメタ情報の抽出や、トピックを使って文書の分類に使用できます。 (岩田具治, トピックモデル 機械学習プロフ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く