並び順

ブックマーク数

期間指定

  • から
  • まで

561 - 583 件 / 583件

新着順 人気順

ディープラーニングの検索結果561 - 583 件 / 583件

  • 画像認識の定番データセットImageNetはもう終わりか - Qiita

    オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 2012年にAlexNet[Krizhevsky, A.(2012)]が登場してから、画像認識分野での発展は著しい。その発展を支えてきたものこそ大規模データセットImageNet[Deng, J.(2009)]である。ImageNetでSoTAを達成すると、そのモデルには最強モデルの称号が与えられると言っても過言ではない。2020年6月にGoogle Brainによって出されたこの論文は、そんな当たり前に使われてきたImageNetデータセットに対して疑問符を叩きつけるものとなっている。現存のImageNetでの性能評価が必ずしも正しいのだろうか。この論文を通してその答えを探しにいく。 本論文で使われて

      画像認識の定番データセットImageNetはもう終わりか - Qiita
    • アスキーアート自動生成とディープラーニングをつなぐ微分可能レンダラーを実装した - Qiita

      はじめに 微分可能レンダラーという研究があります。これは画像の描画過程を微分可能に近似することで、レンダラーへの入力(3次元モデルやカメラ姿勢など)とその出力(画像)の関係をディープラーニングで扱うことが出来るようになるというものです。 この考え方をアスキーアートに適用してみたところ、教師なし学習による精密なアスキーアート生成が可能となりました。 *趣味の活動ですので内容の正確さには期待しないでください。 背景 ディープラーニングでアスキーアートの自動生成を扱った研究として、2017年のDeepAA(日本語解説記事)があります。これはテキストとその描画結果である画像のデータを用意したうえで、逆向きの変換を一文字ずつ教師あり学習させるというものです。 この方法はそれなりの精度が出ているのですが、一文字ずつ学習している構成であることから精密な線の位置合わせができないという問題があります。また、

        アスキーアート自動生成とディープラーニングをつなぐ微分可能レンダラーを実装した - Qiita
      • 《日経Robotics》ラズパイ4の新GPUをハックしてディープラーニング推論を高速化、ベンチャーIdeinはなぜ開発できた?

        IoT向けの安価な小型コンピュータとして注目を集める「Raspberry Pi(ラズパイ)」の全シリーズに、GPUが標準搭載されていることをご存じだろうか。 元は教育用途として始まった同デバイスだが、ユーザーが3次元グラフィックスに触れられるよう、米Broadcom社製のメインチップにGPUコア「VideoCore」が搭載されているのである。 IoTやAI技術を手掛ける日本のベンチャー、Idein(イデイン)は、このラズパイ1~3のGPUをディープラーニング(深層学習)推論のアクセラレータとして使えるようにしたことで知られる1)。このラズパイのGPUは米NVIDIA社のGPGPUと異なり、グラフィックス以外の汎用演算を行うための開発環境やツールがチップ開発元から提供されている訳ではない。 本誌が2019年3月号で解説したように、Ideinは当時、公開されている命令セットアーキテクチャ(IS

          《日経Robotics》ラズパイ4の新GPUをハックしてディープラーニング推論を高速化、ベンチャーIdeinはなぜ開発できた?
        • Deep Metric Learning 入門 - Qiita

          1. Deep Metric Learning 概要 Metric Learningとは日本語で「距離学習」と呼ばれる方法で, 入力空間におけるサンプル同士の類似度が, ユークリッド距離やコサイン類似度などの尺度と対応するように別空間に埋め込むための変換を学習する方法です. この別空間のことを埋め込み空間や特徴空間といいます(以後, 埋め込み空間で統一). DMLは, この変換をDeep Neural Networkによって非線形に設計します. とりわけ入力が画像であれば, DNNとしてConvolutional Neural Networkが用いられます. 犬種を用いた例をあげます. $x_1$, $x_2$はチワワの画像を表しており, $x_3$は柴犬の画像を表しています. $x_1$と$x_2$は同じ犬種なので画像としての類似度が高いと言えます. 一方で$x_1$と$x_3$は異なる

            Deep Metric Learning 入門 - Qiita
          • ディープラーニングで肉体変化のタイムラプスを劇的に見やすくした - Qiita

            はじめに トレーニー(筋トレを愛している人)の多くが習慣化している「自撮り(肉体)」。トレーニング後にパンプした肉体を撮りためて、後で見返すのが至福のときですよね。さらに、撮りためた画像をタイムラプスのようにアニメーションで表示させたら、より筋肉の成長が手に取るようにわかりますよね! この記事はディープラーニングを使って、肉体のタイムラプスを劇的に見やすくした話を書いています。 まずは結果から 2017/12~2020/3の体の変化 ※データサイズの都合上、画像をクロップ&圧縮しています。 目次 1.手作業での補正 1-1.そのまま表示 1-2.位置の固定 1-2-1.乳首おへそ座標付与ツール 1-2-2.動画作成 2.ディープラーニングを用いた自動補正 2-1.アノテーションデータ作成 2-2.学習 2-3.未知画像への適用 2-4.後処理 2-4-1.各ピクセルの出力値が閾値以下のもの

              ディープラーニングで肉体変化のタイムラプスを劇的に見やすくした - Qiita
            • OpenAI Whisper に追加学習をさせる試み | IIJ Engineers Blog

              地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 【IIJ 2022 TECHアドベントカレンダー 12/8(木)の記事です】 Whisperの追加学習に挑む2022年の冬 2022年アドベントカレンダー企画だそうです。 いかがお過ごしでしょうか。 私はもう興味を引くものに没頭するしか楽しみがないもんで、PCに向かってぼんやり面白いネタはないかなーと探す日々です。 最近はすっかりディープラーニングにズブズブで、とうとう数式かくのが面倒なあまり手書き入力のためのペンタブレットを買いました。てへ。 今回は9月から10月にかけてStabl

                OpenAI Whisper に追加学習をさせる試み | IIJ Engineers Blog
              • 深層学習を用いた三次元点群処理入門

                第230回CVIM研究発表会 チュートリアルでの「深層学習を用いた三次元点群処理入門」のスライド資料です 図などは各論文から引用しています

                  深層学習を用いた三次元点群処理入門
                • やってみたら簡単!ディープラーニング・オセロを作って自分を負かすまで強くした話(その2・iOS編) - Qiita

                  前回の記事「やってみたら簡単!ディープラーニング・オセロを作って自分を負かすまで強くした話(その1)」の続編です。 前回は、ディープラーニング・オセロのモデルを作って推論させるところまでを説明しました。 今回は、今回はこのモデルをiOSで動作させ、ミニマックス法やモンテカルロ木探索に組み込む方法について説明します。 前回、UIの説明をすると書きましたが、UIそのものはもともと参加していたコンテストであるリバーシチャレンジから提供されていたものを利用していたので、説明としては省略します。 前回はPython中心の記事でしたが、今回はSwift + Core ML中心の記事になります。 コードはこちらにあります。 TokyoYoshida/reversi-charenge ミニマックス法とモンテカルロ木探索ではどうだったか? 結論から言うと、ミニマックス法は強くならず、モンテカルロ木探索は、私

                    やってみたら簡単!ディープラーニング・オセロを作って自分を負かすまで強くした話(その2・iOS編) - Qiita
                  • 深層学習のセキュリティ課題と論文まとめ - Qiita

                    最終更新 2021/11/24 本質的な内容は変化していないものの,最新の研究動向に対して本記事で取り上げた論文はかなり古くなっているので注意してください. 本記事より良くまとめられているオープンアクセスの日本語文献があるので,そちらを参照するほうがよいと思います. 深層学習技術のセキュリティ課題についてはこちら 森川 郁也(富士通株式会社), "機械学習セキュリティ研究のフロンティア" 電子情報通信学会 基礎・境界ソサイエティ Fundamentals Review, Vol.15 No.1, 2021 https://www.jstage.jst.go.jp/article/essfr/15/1/15_37/_article/-char/ja 深層学習技術のハードウェアセキュリティ課題についてはこちら 吉田 康太, 藤野 毅(立命館大学), "エッジAIデバイスのハードウェアセキュリテ

                      深層学習のセキュリティ課題と論文まとめ - Qiita
                    • 手軽にリアルな絵を生成 粗いマスク指定とテキスト入力で

                      Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 スイス・チューリッヒ工科大学の研究チームが開発した「Controlling Style and Semantics in Weakly-Supervised Image Generation」は、ユーザーが手描きで大雑把に指定したマスク(画像処理ソフトなどで使われる領域指定)とテキスト記述や属性から、もっともらしいリアルな絵を生成する深層学習フレームワークだ。 手描きマスクからリアルな絵を生成する従来の技術には大規模なラベル付きデータが必要で、複雑な形状やオブジェクトから構成される絵の合成はできなかった。オブジェクトを削除すると不自然な部分が残ってしまう問題もあった。 今回の手法では、オブ

                        手軽にリアルな絵を生成 粗いマスク指定とテキスト入力で
                      • NTT、暗号化したままディープラーニングを行う技術

                        日本電信電話(NTT)は9月2日、データを暗号化したまま一度も元データに戻さずに、ソフトマックス関数やAdam(adaptive moment estimation)と呼ばれる最適化処理を含む標準的なディープラーニング(深層学習)の学習処理を行う技術を、世界で初めて実現したと発表した。 通常、データを利活用するためには、通信時や保管時に暗号化した場合でも、処理を行う時には元データに戻して処理する必要があるが新技術により、企業秘密や個人のプライバシーに関わるデータをディープラーニングで使用する時に、サーバではデータを暗号化したまま一度も元データに戻さずに処理可能になるという。 サーバでは常にデータは暗号化したままであり一度も元データに戻さないため、従来よりもユーザーや組織が安心してデータを提供でき、学習に利用できるデータ量や種類が増え、精度の高いAI(人工知能)の実現が可能になると同社は考え

                          NTT、暗号化したままディープラーニングを行う技術
                        • 白井聡「東大さんは、これでお仕舞にすんの?」→大澤昇平「京都精華大学さんはこれでお仕舞にすんの?」

                          もはやまとめではない

                            白井聡「東大さんは、これでお仕舞にすんの?」→大澤昇平「京都精華大学さんはこれでお仕舞にすんの?」
                          • ディープラーニングはもう難しくない | AI専門ニュースメディア AINOW

                            著者のCaleb Kaiser氏は、エンジェル投資家とスタートアップを志望する求職者のためのWebサイトを運営するAngelListに勤務した後、機械学習向け開発環境Cortexの開発に携わっています。同氏がMediumに投稿した記事『ディープラーニングはもう難しくない』では、近年、機械学習アプリの開発の敷居が低くなっていることとこの事実から導かれる帰結が論じられています。 機械学習とディープラーニングが活用されるようになった第三次AIブームが始まった数年前においては、AIモデルの開発には大規模な学習データ、巨大なアーキテクチャ、そして多額の資金が必要だったため、Googleのような資本力のある企業しか開発できませんでした。 こうしたなか、AI開発の敷居を下げる技術が登場しました。その技術とは、事前学習済みのAIモデルを特定の目的に最適化する転移学習です。転移学習を使えば大規模な学習データ

                              ディープラーニングはもう難しくない | AI専門ニュースメディア AINOW
                            • Sentence BERTをFine TuningしてFAQを類似文書検索してみる - Taste of Tech Topics

                              こんにちは。社内データサイエンスチームYAMALEXの@Ssk1029Takashiです。 最近はRTX4090のマシンを買って電気代が上がってきています。 昨今NLP界隈では事前学習モデルが出てからは、検索というのもキーワードでの検索だけではなく、文章を入力にして似たような文章を探す類似文書検索も使われるようになりました。 そんな中で、今回はFAQを対象にした類似文書検索をSentence BERTを使って試してみます。 FAQでよくある困りごと 今回やること Sentence BERTとは 検証 FAQデータセットから文章ベクトルを学習する 回答文から文章ベクトルを生成する 質問文から近しい回答を見つける 単語が揺れてもいい感じに回答を取得できるのか検証 まとめ FAQでよくある困りごと FAQはあらゆる場面で重要な情報源ですが、いまいち検索がしづらい情報でもあります。 FAQを利用し

                                Sentence BERTをFine TuningしてFAQを類似文書検索してみる - Taste of Tech Topics
                              • ONNXモデルのチューニングテクニック (基礎編)

                                基礎編 / 応用編1 / 応用編2 サイバーエージェント AI Lab の Conversational Agent Teamに所属している兵頭です。今回は私が半年ほど蓄積したONNXのチューニングテクニックを全てブログに残したいと思います。皆さんが既にご存知であろう基本的なことから、かなりトリッキーなチューニングまで幅広くご紹介したいと思います。長文になりますがご容赦願います。 このブログのメインターゲット層は「リサーチャーが実装したモデルを実環境へデプロイするタスクを有する方々」です。一部リサーチャーの方々の参考になる情報が混じっていることもあるかもしれませんが、あまり興味を引かない内容だとは思います。リサーチャーメインの組織に属しながらリサーチエンジニアの立ち位置で身を投じていますので、研究の観点の少し手前あるいは少しその先の部分を担っている立場からこのブログを記載しているものとご認

                                  ONNXモデルのチューニングテクニック (基礎編)
                                • 技術書典応援祭+技術書典8(+α)で買ったおすすめの技術系同人誌 - Qiita

                                  自分が技術書典応援祭+技術書典8(+α)で買った技術系同人誌のなかでおすすめのものを書いていきたいと思います。データサイエンス、機械学習系が多めです。 買ったもの全部は書けなかったので、ここに書いていないのがおすすめではないというわけではないです。(最後以外は)全て自分で購入したものです。 A Primer on Adversarial Examples タイトル:A Primer on Adversarial Examples サークル:原理的には可能 著者:菊田遥平 ページ数:99ページ 電子版 https://techbookfest.org/product/5483924549533696 個人的にはめちゃめちゃおすすめの本です。「技術書典 応援祭」に出ている本では一番これがおすすめです。 いきなり「Adversarial Examples」と言っても何のことだかわからないですよね

                                    技術書典応援祭+技術書典8(+α)で買ったおすすめの技術系同人誌 - Qiita
                                  • 図とコードで必ず分かるニューラルネットワークの逆伝播

                                    連載目次 本稿は、ニューラルネットワーク(以下、ニューラルネット)の仕組みや挙動を、数学理論からではなくPythonコードから学ぶことを目標とした連載(基礎編)の第2回です。「難しい高校以降の数学は苦手だけど、コードを読んでロジックを理解するのは得意!」という方にはピッタリの記事です。 前回の第1回では、本連載の目的や特徴を示した後で、「ニューラルネットの訓練(学習)処理を実現するために必要なこと」として、 ステップ(1)順伝播: forward_prop()関数として実装(前回) ステップ(2)逆伝播: back_prop()関数として実装(今回) ステップ(3)パラメーター(重みとバイアス)の更新: update_params()関数として実装(次回)。これによりモデルが最適化される という3大ステップを示しました。前回はこのうちの「ステップ(1)順伝播」まで実装が完了しています。今回

                                      図とコードで必ず分かるニューラルネットワークの逆伝播
                                    • 機械学習の書籍多いけど、どれ買えば良いの?レベル別にオススメ!!<初心者向け> - Qiita

                                      はじめに 機械学習の書籍多いけど、どれ買えば良いのかをレベル別にオススメします。 レベルはレベル1~レベル5の五段階です。 今の自分にあったレベルから書籍を選んでみて下さい。 また3〜4ヶ月でここに紹介した書籍を読み進められるとベストです。 勉強方法はこのnoteでは触れませんが、Couseraのマシンラーニングコースなどオンラインでとても良い講座があるので、書籍以外のサービスも活用してみて下さい。 *AIに関して勉強したい方は下記の2つご利用ください! AI Academy 無料でPythonや機械学習、ディープラーニングが学べるオンラインAIプログラミング学習サービス *一部コンテンツは月額980円にて全て利用可能。 AI Academy Bootcamp 個人向け2ヶ月10万円で受講可能な、受講後すぐに業務で使える分析力を身に着けられるAI・データ活用ブートキャンプ 人工知能基礎編<

                                        機械学習の書籍多いけど、どれ買えば良いの?レベル別にオススメ!!<初心者向け> - Qiita
                                      • ソフトバンク、代理店の不正契約について「事実として把握」――本人の知らないところで端末と回線を不正契約

                                          ソフトバンク、代理店の不正契約について「事実として把握」――本人の知らないところで端末と回線を不正契約
                                        • 【論文読み】異常検知を支える技術 - Qiita

                                          前回の記事では、ディープラーニングの異常検知に関するベンチマークを 行いました。その結果、「L2-SoftmaxLoss」が一番良い性能を示しました。 本稿では、その元になった「論文の概要」と「異常検知に適用した場合の考察」を 記したいと思います。 ※なお、本稿の図は特に明記がない場合は論文(L2-constrained Softmax Loss for Discriminative Face Verification )より引用しています。 論文の結論 結論からいうと、論文で言いたかったことは ということです。この意味が分かる方は、既に論文のほとんどを理解できています。 あとは、分類精度を向上させるために、ソフトマックス関数をどう改造するかのお話しです。 ソフトマックス関数のクロスエントロピー 分類問題で良く使われるソフトマックス関数のクロスエントロピーは 以下のとおりです。 L_S=-\

                                            【論文読み】異常検知を支える技術 - Qiita
                                          • ディープラーニング声質変換OSS「yukarinライブラリ」関連記事等一覧 - Qiita

                                            はじめに ヒホさん開発のディープラーニング声質変換OSSである「誰でも好きなキャラになれる」レポジトリ become-yukarinなどのいわゆる「yukarinライブラリ」の記事をまとめました。あなたも声質変換に挑戦してみませんか? yukarinライブラリのユーザーコミュニティ yukarinライブラリのユーザーコミュニティはこちらです。きりさんさんやatticさんが中心となって、メンバーが数十人で、活発にyukarinライブラリなどの意見交換が行われています。 yukarinライブラリディスコード 環境構築について(今のところグーグルコラボラトリーとWindowsとUbuntuによる方法があります。最近WSL2でも可能になったようです。(yukarinライブラリでは未検証)) グーグルコラボラトリーでお手軽実行するための方法 atticさんによるもの。WindowsでGPUがなくても

                                              ディープラーニング声質変換OSS「yukarinライブラリ」関連記事等一覧 - Qiita
                                            • パラメータ数を激減させる新しい畳み込み「MixConv」解説!

                                              3つの要点 その1  パラメータ数を激減させる新しい畳み込みMixConvを提案 その2  MixConv層を含んだモデルをAIに自動生成(=NAS)させることでMixNetを開発 その3  MixNetはMobileNet-V3やMnasNetなどの小型画像認識モデルのみならずResNet-153に対してはパラメータ数1/9程度で性能を凌いだ MixConv: Mixed Depthwise Convolutional Kernels written by Mingxing Tan, Quoc V. Le (Submitted on 22 Jul 2019 (v1), last revised 1 Dec 2019 (this version, v3)) Journal reference: BMVC 2019 Subjects: Computer Vision and Pattern

                                                パラメータ数を激減させる新しい畳み込み「MixConv」解説!
                                              • AI で画像生成するテキストを作成 ジェネレーター