並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 183件

新着順 人気順

jetsonの検索結果1 - 40 件 / 183件

jetsonに関するエントリは183件あります。 JetsonAI機械学習 などが関連タグです。 人気エントリには 『Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】 - Qiita』などがあります。
  • Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】 - Qiita

    Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】RaspberryPiTensorflowLitexnnpack 1. はじめに 今から半年前の2020年6月、ラズパイ4上でTensorFlow Liteを使った様々なAI認識アプリを動かしてみて、その動作速度をまとめました。 当時のTensorFlowはバージョン2.2でしたが、現在は 2.4(rc4) へと進んでいます。進化が極めて速いDeepLearningの世界において、この半年間でTensorFlow Liteはどう変化したでしょうか。もし「手持ちのアプリは何も変えてないのに、TensorFlow Liteを新しくするだけでめっちゃ速く動くようになったぜ」というのだと嬉しいですよね。 本記事では、前回計測に用いたアプリを再び最新版のTensorFlow Lite環

      Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】 - Qiita
    • Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita

      1. はじめに 世の中にはDeepLearningの学習済みモデルを公開してくださっている方がたくさんいらっしゃいます。本記事は、そのうちのいくつかをラズパイ4で動かしてみて、いったいどれくらいの速度で動くのかを検証したものです。 計測対象モデルとして、Mediapipe および TensorFlow.js、TensorFlow Lite models で公開されている学習済みモデルを利用させて頂きました。またモデル実行フレームワークとしては、モバイル向けに整備が進む TensorFlow Lite (C++) を用いました。 計測にあたっては、公開されているモデルをそのまま動かすだけでなく、一般的な高速化手法である下記の2手法を両方試し、その効果も計測しました。 [1] モデルをint8量子化する方法 演算精度に多少目をつぶる代わりに、NEON等のSIMD演算器による並列処理の並列度をさ

        Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita
      • 腕木通信で遊ぼう

        1983年徳島県生まれ。大阪在住。散歩が趣味の組込エンジニア。エアコンの配管や室外機のある風景など、普段着の街を見るのが好き。日常的すぎて誰も気にしないようなモノに気付いていきたい。(動画インタビュー) 前の記事:網戸越しに景色を撮ると自分ちの庭みたいに見える > 個人サイト NEKOPLA Tumblr 腕木通信とは 腕木通信は、1793年にクロード・シャップによって発明された通信手段である。今でもよく知られているモールス信号(電信)が登場するよりも前の話だ。 どんな感じで情報を送るのか、自作の腕木通信機で試してみた。例として「我が輩は猫である、名前はまだない(WAGAHAI HA NEKO DEARU NAMAE HA MADA NAI)」というのを送ってみよう。 このクネクネした動きが「猫である(NEKODEARU)」を表している 全文は動画でどうぞ モールス信号はトン(・)とツー(

          腕木通信で遊ぼう
        • 安価な1.28インチ円形ディスプレイ、Raspberry PiやJetson Nanoに対応

            安価な1.28インチ円形ディスプレイ、Raspberry PiやJetson Nanoに対応
          • ラズパイに限界を感じてNVIDIA「Jetson Nano」を使いはじめた

            Jetson Nanoという小型コンピューターにUbuntu 18.04を入れて、ROS Melodicを入れた。 Jetson NanoはNVIDIAが提供するパワフルな小型コンピューター。そこにUbuntuというOSを入れ、ロボット用のミドルウェアであるROSを入れたのだ。 ●Ubuntu 16.04を入れる手段が見当たらない…… Jetson Nanoを使い始めたのは、Raspberry Piを使うことに限界を感じたからだ。 ノートPC(Let’snote)にUbuntu 16.04とROS Kineticを入れてオリジナルのウェアラブルロボットを動かしていた。 しかし、ノートPCからケーブルが出ているロボットはウェアラブルな感じがしない。そこでSBC(シングルボードコンピュータ)で動かせるようにして、SBCもウェアラブルにしようと考えた。 SBCといえば、でまず使い始めたのがRas

              ラズパイに限界を感じてNVIDIA「Jetson Nano」を使いはじめた
            • GoogleでJetson Nano x TensorFlowの可能性に関してプレゼンしてきました - karaage. [からあげ]

              Googleさんでのプレゼン発表無事終わりました Google 東京オフィスのTFUG(TensorFlow User Group)イベントでJetson Nanoに関して発表してきました。イベントの詳細やプレゼンすることになった経緯などは以下参照下さい(既にイベントは終了しています)。 どうなることかと思いましたが、無事プレゼン終えることができてホッとしております。 この記事では、プレゼン見れなかった人への情報提供、プレゼン見てくださった方への情報補足として、発表内容や関連情報をまとめておこうと思います。 「Jetson Nano x TensorFlowで始めるモバイルAI画像認識」 発表スライド Jetson Nano x TensorFlowで始めるモバイルAI画像認識 from karaage0703 発表したスライド資料です。私以外の方のスライド等は以下リンク先参照下さい。 S

                GoogleでJetson Nano x TensorFlowの可能性に関してプレゼンしてきました - karaage. [からあげ]
              • [PyConJP2019]Pythonで切り開く新しい農業

                Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs

                  [PyConJP2019]Pythonで切り開く新しい農業
                • NVIDIA、59ドルの2GBメモリ版「Jetson Nano」を発表

                    NVIDIA、59ドルの2GBメモリ版「Jetson Nano」を発表
                  • JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary

                    1. 概要 追記 公開当初Jetson Nanoの性能表記に誤記があったため修正しています。 最近組み込みデバイス(以下エッジと表現)で画像認識や音声認識、センサ情報の処理といったディープラーニングを利用した処理を実行することが容易になっている。低消費電力で、高速にディープラーニングを処理するためのエッジAI用アクセラレータが各社から発売されていることがその理由の一つだろう。 こういった、エッジAI用のアクセラレータは各社によってその使用や対応フレームワーク、利用できるディープラーニングのネットワーク構成に違いがある。どれも同じように利用できるわけではない。自分でエッジAI用アクセラレータを利用しようとしたときにいくつか調べてみた内容をメモがわりに残してみる。ちなみに個人で遊べるものを中心にしてるので、産業的にどうなのかは知らない、悪しからず。。。 あとこのブログではAndroid Thi

                      JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary
                    • 【国内認定第1号!】NVIDIAの新しいAI認定制度「Jetson AI Specialist」認証を取得してみた!「Jetson Nano 2GB開発者キット」実機レビュー 2 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                      前回は新発売のAIコンピュータボード「NVIDIA JETSON NANO 2GB 開発者キット」(以下、Jetson Nano 2GB)の特徴とレビューを解説しました。今回は「Jetson Nano 2GB」を使って、いま話題になっているNVIDIAのAI認定制度「Jetson AI Specialist」の認定を実際に申請してみて、取得にチャレンジしようと思います。 結果から言いますと、「Jetson Nano 2GB」を使った「マスク判定と検温のAI」のプロジェクトを作成して申請し、「Jetson AI Specialist」の【国内認定第1号】として無事に取得することができました!!それほどハードルは高くないので、申請から認定までの流れをお届けしますので、皆さんも挑戦してみてください! 「Jetson AI Certification」の概要 まずは「Jetson AI Certi

                        【国内認定第1号!】NVIDIAの新しいAI認定制度「Jetson AI Specialist」認証を取得してみた!「Jetson Nano 2GB開発者キット」実機レビュー 2 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                      • 【西川和久の不定期コラム】 強力なGPUを搭載した「Jetson Nano」でAIを走らせてみた

                          【西川和久の不定期コラム】 強力なGPUを搭載した「Jetson Nano」でAIを走らせてみた
                        • 【西川和久の不定期コラム】 CUDAコア128基のGPUを搭載したAI/深層学習向け「Jetson Nano開発者キット」を試す

                            【西川和久の不定期コラム】 CUDAコア128基のGPUを搭載したAI/深層学習向け「Jetson Nano開発者キット」を試す
                          • 【速報】NVIDIA「Jetson Orin Nano」を発表 従来Nanoの約80倍の高性能 超小型AIコンピュータ Orinファミリーは3機種に - ロボスタ ロボスタ - ロボット情報WEBマガジン

                            NVIDIAは「GTC 2022」において、CEOのジェンスン・フアン氏が基調講演で、ロボティクスやエッジAI向け超小型AIコンピュータ「Jetson」シリーズに新しいラインナップとして、エントリーレベルの「Jetson Orin Nano」を加えることを発表した。「Jetson Orin Nano」には8GB版と4GB版の2種類が用意される。 価格は199ドルからで出荷予定は2023年1月の予定。アーキテクチュアは現行の「Jetson Orin」と共通のため、「Jetson Orin開発者キット」を使用してシステムの開発自体はすぐにでも始めることができる。本体のサイズやピンは今秋発売予定の「Jetson Orin NX」と同じ。 「NVIDIA Jetson Orin Nano」は、従来の「Jetson Nano」と比較してパフォーマンスが約80倍と飛躍的に向上する。それでいて価格は比較

                              【速報】NVIDIA「Jetson Orin Nano」を発表 従来Nanoの約80倍の高性能 超小型AIコンピュータ Orinファミリーは3機種に - ロボスタ ロボスタ - ロボット情報WEBマガジン
                            • Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary

                              この記事について 深層強化学習を利用してAI RC Carの走行を学習させるソフトウェアをGithub上で公開しています。learnign_racerと命名しました。2020年4月29日の時点でのバージョンはv1.0.0です。この記事ではこのソフトウェアについて紹介していきます。 github.com なお、NVIDIAのJetson Community Projectsのページでも紹介されています。 developer.nvidia.com learning_racerの概要 このソフトウェアは10分から15分程度の学習時間で、コースに沿って走行する方法を獲得することができます。従来のAI RC Carでは人間のお手本操作をDNNに覚えこませる手法が一般的です1。ですが、本手法は教師なし学習の手法である強化学習をベースとしているため、教師データとなる人間のお手本操作は必要ありません。さら

                                Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary
                              • Edge TPU の性能を引き出すためには? - OPTiM TECH BLOG

                                はじめに オプティムの R&D チームで Deep な画像解析をやっている奥村です。 Edge TPU は NVIDIA GPU と同じような感覚で使うことはできません。NVIDIA GPU よりもメモリの制約が強く、Edge TPU の性能を引き出したり、複数のモデルを1つの Edge TPU で同時に実行するにはいくつかのコツが必要になります。Edge TPU Compiler | Coral をベースに、意訳・追記したものをメモしました。 Edge TPU はモデルのパラメータデータをキャッシュするための 8MB 程度の SRAM を持っており、ここにモデルが乗り切らない場合、都度外部メモリから Edge TPU にデータを転送する必要があるため、性能低下を引き起します。また、複数モデルを 1 つの Edge TPU で実行する場合、同時コンパイル (Co-Compile) しないと

                                  Edge TPU の性能を引き出すためには? - OPTiM TECH BLOG
                                • 【YOLOv5】マスクしてる人・してない人を物体検出 - Qiita

                                  YOLOv5がリリースされたとのことなので試してみました。 https://github.com/ultralytics/yolov5/ 目次 使用データと目的 実装例 データ準備 COCOデータのpretrainedモデルのダウンロード コードのダウンロード 環境準備 コード実行 コード説明 最後に 1. 使用データと目的 以下のサイトから物体検出用の画像を拾ってきました。 https://public.roboflow.ai/object-detection/ 色んなデータがありますが、コロナの時期なのでマスク有り無しのデータを選択してみました。 目的は図のようにマスクをしている人・していない人の物体検出を行うことです。 2. 実装例 2-1. データ準備 まずデータをダウンロードします。 以下のURLにアクセスします。 https://public.roboflow.ai/objec

                                    【YOLOv5】マスクしてる人・してない人を物体検出 - Qiita
                                  • NVIDIAが「Jetson Nano」搭載のAIレースカー「JetRacer」情報を公開!NVIDIA担当者に聞く、Jetson最新情報やTPUとの比較 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                                    「ディープラーニング(DL)やディープニューラルネットワーク(DNN)を使ってどんなことができるのか」 「機械学習とAI予測の具体的な手順を学んだり体験してみたい」 そう思っている人は少なくないはずだ。 NVIDIAは超小型のAIコンピュータボード「NVIDIA Jetson Nano」を使って、高速に走行できるAIレースカー「JetRacer」をGitHubで公開した。高速で自律走行するためのDLやDNN技術を基礎から学ぶことができる。 今回、ロボスタでは2017年からNVIDIA米国本社でJetsonテクニカル・プロダクト・マーケティング・マネージャーをつとめている矢戸知得(やと・ちとく)氏に「JetRacer」の話を聞いた。更には「Jetson Nano」の最新情報や、気になる競合製品との比較、TPUやインテルのAIスティックとの違いについても聞いた。

                                      NVIDIAが「Jetson Nano」搭載のAIレースカー「JetRacer」情報を公開!NVIDIA担当者に聞く、Jetson最新情報やTPUとの比較 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                                    • AI学習の新定番「NVIDIA Jetson Nano 2GB 開発者キット」実機レビュー、話題のJetson AI認定制度も解説 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                                      2020年10月5日、NVIDIAからJetsonシリーズの新製品「Jetson Nano 2GB 開発者キット」(以下Jetson Nano 2GB)が発表され、59ドルの価格(日本国内販売はワイヤレスモジュール非同梱の54ドル版)とともに大きな話題になりました。「Jetson Nano 2GB」は、2019年3月に発表された「NVIDIA Jetson Nano 開発者キット」(4GB)と比べてメモリ容量が少なくなった代わりに価格を抑えた廉価版で、主に学生や教育者向けに位置づけられた製品です。 製品の発表のほかに、もうひとつ重要なトピックとして、NVIDIAが認定する「Jetson AI Certification」というAI認定制度がスタートすることも発表になりました。これからAI学習をはじめる人にとっては、まずは目指す目標のひとつとして、ビジネスでAIに関わっている人は修得するスキ

                                        AI学習の新定番「NVIDIA Jetson Nano 2GB 開発者キット」実機レビュー、話題のJetson AI認定制度も解説 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                                      • keras-yolo3 で独自データセットに対して学習させる方法 - ほぼPython

                                        宣伝 人工知能が顔面成分を分析してくれるサイトを作りました。ぜひ使ってみてください! ちなみにTensorflow.jsで作成しているのですべての処理がユーザーのブラウザで行われます。つまり、画像をアップしてもそれがサーバーに送られることはなく、セキュリティ的にも安心です。 ai-animal.web.app 何番煎じなんだって感じもしますが、まとめておきます。 「keras-yolo3で学習済みモデルを使って一般的な物体検出はできた」という方が対象です。 ちなみにkeras-yolo3とは物体検出を行う深層学習モデルYOLOv3をkerasで実装した有名なgitHubリポジトリのことです。 github.com さて、独自データセットで学習させるためには大きく分けて3つのことをする必要があります。(執筆時点) ・データのアノテーション ・train.pyによる学習 ・独自データによる学習

                                          keras-yolo3 で独自データセットに対して学習させる方法 - ほぼPython
                                        • プラネックス、ラズパイ・Jetsonを外部から遠隔操作できる「Cloud Pi 2」

                                          プラネックスコミュニケーションズは10月16日、ローカルエリアネットワーク内に設置されたシングルボードコンピュータ「Raspberry Pi」や「Jetson Nano」の遠隔操作を可能とするP2Pプラットフォーム「Cloud Pi 2」の販売を開始したと発表した。店頭予想価格は、4500円前後。 Cloud Pi 2は、ユニークIDが記載されたカードとして提供され、「Raspberry Pi」用、「Jetson Nano」用のサーバーモジュール、Windows用、Android用のクライアントモジュールは同社のホームページからダウンロードできる。 なお、同社のネットワークカメラ「スマカメ」シリーズで実績のあるP2Pプラットフォームを活用している。 シングルボードコンピュータの「Raspberry Pi」や「Jetson Nano」は、環境センサーやストレージ、赤外線ユニットなどを組み合わ

                                            プラネックス、ラズパイ・Jetsonを外部から遠隔操作できる「Cloud Pi 2」
                                          • AI女子、無料GPUでYOLO v3はじめました。 - Qiita

                                            はじめに AIスタートアップでWEBアプリ開発をやりながら、pythonとAIを勉強中です。 画像認識でやりたいことがあり、まずは開発環境の構築とアルゴリズムを使ってみるところまでを実践しました。 今回やりたいこと YOLOv3を使う 無料でGPUを使う YOLOとは 物体検出アルゴリズムのうちの1つです。(物体検出は他にFaster R-CNNやSSDなどのアルゴリズムがあります。) YOLOの特徴は、速くて高精度なことで、現在v3が最新バージョンです。 今回ニューラルネットフレームワークはDarknetを使ます。(フレームワークは他に、TensorflowやChainer、Caffeなどがあります。) ちなみに、YOLOはYou only look onceの略で、You only live once(人生一度きり)をもじっているそうです。 YOLOで物体検出する Darknetのイン

                                              AI女子、無料GPUでYOLO v3はじめました。 - Qiita
                                            • JetRacerが面白い|akira

                                              JetRacerは、タミヤのTT02という車体にも対応しており、国内で入手可能なパーツで開発する事が可能です。 下記が、JetRacerのデモ走行です。 JetRacerの面白さは、自動走行するために必要なデータセットの数の少なさにあります。上記走行に必要なデータセット数は200セットぐらいです。DonkeyCarが5000〜2万セットぐらい必要とするのに対し、その1/25〜1/100程度のデータセット規模で自動走行可能となります。 追加更新) 上記は、2021年11月23日に開催されたAIでRCカーを走らせよう!走行会での走行動画。こちらは100セットのデータセットを転移学習させて自動走行を実現。 JetRacerが少ないデータセットで自動走行できるのは、転移学習を使っているためです。ResNetの学習済みモデルに、フロントカメラの画像と、行きたい方向(X,Y)をデータセットにし、転移学

                                                JetRacerが面白い|akira
                                              • AIやロボット制御技術が学べる小型二輪移動ロボット「Jetson Nano Mouse」アールティが発表 広角カメラ2台搭載、ROS対応 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                                                「ロボットのいるくらし」を掲げる株式会社アールティは、AGV・自動運転技術の需要や在宅での研究開発需要の高まりに応えるため、画像処理、機械学習などのAI関連技術とロボット制御技術を同時に学ぶことができる小型二輪移動ロボット「Jetson Nano Mouse」(ジェットソン ナノ マウス)の予約受付を9月1日より開始、9月14日(月)に発売することを発表した。価格は77,000円(税込)。NVIDIA製のAIコンピュータボード「Jetson Nano」が別途必要で「Jetson Nano Mouse」製品には付属しない。 「Jetson Nano Mouse」の特徴 ・アールティの車輪型プラットフォームロボット ・広角カメラ×2を標準搭載 両眼視差を用いた立体視も可能 ・手持ちのJetson Nanoを活用可能 ・ロボット制御用ミドルウェアROS(Robot Operating Syste

                                                  AIやロボット制御技術が学べる小型二輪移動ロボット「Jetson Nano Mouse」アールティが発表 広角カメラ2台搭載、ROS対応 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                                                • 【Python】keras-yolo3を使用して物体検出

                                                  Keras(TensorFlowバックエンド)で物体検出をしてみます。 物体検出にはkeras-yolo3を使用します。 https://github.com/qqwweee/keras-yolo3 構築環境 Windows10 Home 64bit Anaconda 4.4.0 Python3.6.7 tensorflow-gpu1.12 Keras2.2.4 keras-yolo3の導入 KerasとTensorFlowが使用できる環境を事前に構築しておく必要があります。 仮想環境にKerasとTensorFlowをインストールする手順は下記を参照してください。 https://kazusa-pg.com/install-tensorflow-gpu-keras/ git cloneコマンドを使用するか、keras-yolo3のgithubのページからzipファイルをダウンロードします

                                                    【Python】keras-yolo3を使用して物体検出
                                                  • 学習済みの一般物体検出(YOLOv3)をPC上で動かしてみた - ハードウェア技術者のスキルアップ日誌

                                                    前回のYOLOv2に引き続き、今回はYOLOv3を動かすことにチャレンジしましたので、実施内容を記録しておきます。 masaeng.hatenablog.com フレームワークはKerasを用います。 動作環境 OS:Windows 10 Home (64bit) Python 3.5 Anaconda 4.2.0 Keras 2.2.4 手順 ①GITHUBに上がっているこちらの学習済みモデルをダウンロードし、任意の場所に解凍します。 https://github.com/mashyko/keras-yolo3 <学習済みモデル> 入力画像サイズ:416x416 学習データセット:COCO classes 検出クラス:80クラス "person", "bicycle", "car", "motorbike", "aeroplane", "bus", "train", "truck", "

                                                      学習済みの一般物体検出(YOLOv3)をPC上で動かしてみた - ハードウェア技術者のスキルアップ日誌
                                                    • Jetson NanoでオリジナルYOLOを動かす - Qiita

                                                      この記事でやること この記事ではcolab上で生成したweightsを用いて、Jetsonで走らせるところまでやります。 YOLOのオリジナルモデルの作成方法については過去の記事を参考にしてください。 https://qiita.com/tayutayufk/items/4e5e35822edc5fda60ca https://qiita.com/tayutayufk/items/4dba4087e6f06fec338b Jetson Nanoの用意 前提としてJetsonにはJetCardをインストールしておいてください。 最初にOpenCVのダウンロードから行っていきます。 https://qiita.com/usk81/items/98e54e2463e9d8a11415 このサイトを参考に導入してください。 自分は/home/"ユーザーネーム"/Lib/以下にクローン&ビルドしまし

                                                        Jetson NanoでオリジナルYOLOを動かす - Qiita
                                                      • Jetson Yolo USBカメラで物体を認識させる - Qiita

                                                        darknetフォルダの中にpythonで書かれた物体認識のサンプルプログラムがあり、USBカメラを接続した状態で実行するとUSBカメラの画面が立ち上がり、写ったものを物体認識が働きます。 100円ショップで買ったコップが認識されました。 学習済みのデータで実行する $ wget https://pjreddie.com/media/files/yolov3.weights $ ./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights

                                                          Jetson Yolo USBカメラで物体を認識させる - Qiita
                                                        • NVIDIAが安価な人工知能開発キット「Jetson Nano 2GB」を発表

                                                          NVIDIAは、オンラインで開催されたジェンスン・フアン最高経営責任者(CEO)による「GTC2020」の基調講演で、人工知能(AI)初学者向けの開発キットであるJetson Nanoの安価なバージョン「Jetson Nano 2GB」をリリースすることを発表しました。 Jetson Nano 2GB Developer Kit | NVIDIA Developer https://developer.nvidia.com/embedded/jetson-nano-2gb-developer-kit NVIDIA Announces $59 Jetson Nano 2GB, A Single Board Computer With Makers In Mind | Hackaday https://hackaday.com/2020/10/05/nvidia-announces-59-je

                                                            NVIDIAが安価な人工知能開発キット「Jetson Nano 2GB」を発表
                                                          • 誰得なのか不明ですが2000円でCUDAを試してみました - Qiita

                                                            こんにちは @ixiv です。 「機械学習を勉強したい」と意欲を燃やす方々の中には「できたらGPGPUも!」と考えてる方も多いような気がします。とはいえ、自分のようなぺーぺーの初心者の方は、1本数万円するGPUで勉強をはじめよう、という事も難しく「なんとなくCUDAというものに触れてみたいなぁ」といったモチベーションに留まっているかと思います。 そこで、今回はまさかの 2020年の年末に2011年3月15日(僕の誕生日)発売のグラフィックボード『GeForce GTC550Ti』をメルカリで2000円で入手し、お手軽CUDA環境を立ち上げ、YOLO+CUDA+OpenCVでリアルタイム物体検出(Object Detection)をするまでの流れをまとめます。恐らく本手順を使うのは世界に自分ひとりな気もしますが… はじめに では早速。まずPC環境と、今回の記事を作成するために参照したWEBサ

                                                              誰得なのか不明ですが2000円でCUDAを試してみました - Qiita
                                                            • エッジAIを加速する「Jetson」、次モデルは「Nano Next」と「Orin」に

                                                              エッジAIを加速する「Jetson」、次モデルは「Nano Next」と「Orin」に:GTC Digital(1/2 ページ) NVIDIAは「GTC Digital」の講演で組み込みAI開発プラットフォーム「NVIDIA Jetson」を紹介した。AIコンピュータの他、各種SDK、NVIDIAのパートナー企業の解説を行った。 NVIDIAは2020年3月22~26日に米国サンノゼで開催予定だったユーザーイベント「GTC(GPU Technology Conference) 2020」に替えて、新型コロナウイルス感染症(COVID-19)の感染拡大に対応した完全オンラインイベント「GTC Digtal」を開催している。GTC Digtalでは、同年3月下旬から4月23日までの約1カ月間でさまざまな講演がオンラインで無料で見られるようになっている。 本稿では、これらの中から、IoT(モノの

                                                                エッジAIを加速する「Jetson」、次モデルは「Nano Next」と「Orin」に
                                                              • ディープラーニングとJetson nanoでEnd-to-Endな自動走行を実現した話〜Jetpilotを作ってみた〜 - masato-ka's diary

                                                                1. この記事について Jetson nanoを搭載した移動ロボットJetbotを作成し、前回はJetbotを使った単眼vSLAMを実行させた。 masato-ka.hatenablog.com しかしvSLAMはPC側で処理される。Jetson nanoはPCへ映像を送信するだけだ。これでは搭載されているGPUが活躍していない。せっかくなのでJetson nanoに搭載されているGPUの威力を体感したかった。 そこで今回はディープラーニング を利用して画像から直接判断して走行する、End-to-Endな自動走行にチャレンジしてみた。コースを追従するだけであれば、単純な画像認識によるライントレースと簡単なルールベースの仕組みで十分だろう。しかし、今回は前提となるルールを作るのではなくデータだけ与えて、ディープラーニングで解くのがポイントとなる。以下の画像のようにJetbotがコース上を追従

                                                                  ディープラーニングとJetson nanoでEnd-to-Endな自動走行を実現した話〜Jetpilotを作ってみた〜 - masato-ka's diary
                                                                • 共著で書いた本「Jetson Nano超入門」が12/21に発売されます - karaage. [からあげ]

                                                                  「Jetson Nano超入門」という本が12/21に発売予定です 情報解禁になりましたので、告知です。私が共著者として執筆した(正確にはまだチェックがあるので執筆している)書籍「Jetson Nano超入門」が発売されます。その名の通り「Jetson Nano」というマイコンボードの入門書になります。 Jetson Nano超入門(Amazonリンク) 著者の欄をみると… ひとりだけ食べ物の名前!! ブログより一足早く告知のツイートをしていたのですが、既に多くの反響をいただいています。ちなみに、ツイートでは12/20に発売と書いてありますが、どうも12/20は配本というものらしく、実際に書店に並ぶのは12/21の可能性が高いようです(まだ変更の可能性もあるかもしれません)。 Jetson Nanoの本を共著で出します! 12/20に発売予定で、年内に間に合いそうです。詳細は以下となります

                                                                    共著で書いた本「Jetson Nano超入門」が12/21に発売されます - karaage. [からあげ]
                                                                  • Google Colaboratory上でYOLOを動かして画像認識させてみた

                                                                    Google Colaboratory上でYOLOを動かして画像認識させてみた 2019.04.27 AI #Google Colaboratory, #YOLO, #画像認識 Google ColaboratoryというGPUを無料で使えるサービスを使って画像認識させてみたいなと思ったので実際にやってみました。 日本語の情報はまだ少ないようなので少し苦労しましたがなんとかできました。 Colab上で画像認識させてみた結果がこちら。 人もコップも椅子も時計も全て認識してくれています。うん、いい感じです。 Google Colaboratory上の環境はこちらのページの通りに実施したらできました。ありがたやありがたや。今回は「darknet」というフレームワークを使用していますが、「Keras」を使用して動かす方法もあるようです。 ※以下のリンクではCUDA8.0をインストールするとなってい

                                                                      Google Colaboratory上でYOLOを動かして画像認識させてみた
                                                                    • 【速報】NVIDIA「Jetson Xavier NX」5月15日に発売 超小型のAIコンピュータボードの最新版 TX2の約15倍高速、価格は45,900円 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                                                                      NVIDIAは、同社の創業者兼CEO ジェンスンフアン氏の「GTC2020 基調講演」(オンライン配信)をYouTubeで配信した。それと時を同じくして、低価格で高性能なAIコンピュータボード「Jetson Xavier NX」開発キットがいよいよ5月15日より、日本国内で発売になることが明らかになった。

                                                                        【速報】NVIDIA「Jetson Xavier NX」5月15日に発売 超小型のAIコンピュータボードの最新版 TX2の約15倍高速、価格は45,900円 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                                                                      • YOLO v3を使ってシャニマスのキャラクター画像認識&判別をしてみる - Qiita

                                                                        でインストールが可能. 実行 画像収集のためにコードを書く. シャニマスのアイドルを集めるために以下のようにする. 立ち絵が少ない印象だったので「キャラ名 コミュ」等も追加するといいかもしれない. from icrawler.builtin import GoogleImageCrawler google_crawler = GoogleImageCrawler( feeder_threads = 1, parser_threads = 2, downloader_threads = 4, storage = {'root_dir': 'shiny'} ) filters = dict( size = 'large' ) words = ["アイドルマスターシャイニーカラーズ","シャニマス","櫻木真乃","風野灯織","八宮めぐる", "月岡恋鐘","田中摩美々","三峰結華","白瀬

                                                                          YOLO v3を使ってシャニマスのキャラクター画像認識&判別をしてみる - Qiita
                                                                        • YOLOv3+pythonで車載動画中のバイクを認識し動画にする - Qiita

                                                                          リアルタイムに物体認識できるYOLOですが、最近YOLOv3が登場しました。 これを使って、試しに簡単な動画解析プログラムを組んでみます。 さて、私は、趣味でバイクに乗っていて、ドライブレコーダー代わりに、安価なアクションカメラを付けて、動画を撮影することがあります。 ただ、車載動画は撮影しても、長すぎて全部見返すことはほとんどありません。いいシーンだけ抜き出してくれればなぁと常々思っています。 ところで、バイク同士がすれ違うときに、軽く手を降るなど挨拶する文化があり、YAEH(ヤエー)と呼ばれています。 市街地ではほとんどないですが、ツーリングスポットでお互い集団だと時々ヤエーされたりします。 youtubeには多くのヤエー動画がアップロードされてます。 YOLOを使って、バイクとのすれ違いシーンをうまく切り出すことができれば、「YAEH(っぽいところ)動画」を自動的に作ることができそう

                                                                            YOLOv3+pythonで車載動画中のバイクを認識し動画にする - Qiita
                                                                          • Jetson Nanoがロボットの頭脳に最適かもしれないと思った話 - karaage. [からあげ]

                                                                            Jetson Nanoで夜な夜な遊んでいます Jetson Nanoがかなり使える感じなので、出張先のホテルにも持ち込んで、仕事後に夜な夜な遊んでいます。 ROS(Robot Operating System)というロボット制御用のミドルウェアと相性が良いという話なので、ROS入れてから、Intel Realsense D435というDepthカメラを繋いでみました。詳しい方法はQiitaに投稿したので以下記事参照下さい。 Jetson NanoにROSをインストールする方法 Jetson NanoでIntel Realsense D435を使う方法(ROS対応) 先人の知恵もあり、そんなにハマらずあっさりインストールできました。 結構重いはずの3次元処理や、ROSの可視化ソフト(Rviz)がサクサク動くのが良いですね。GPUとCUDAのパワーでしょうか。 まとめ Jetson Nanoで

                                                                              Jetson Nanoがロボットの頭脳に最適かもしれないと思った話 - karaage. [からあげ]
                                                                            • NVIDIA Container Toolkit を使って Docker コンテナで GPU を使う - CUBE SUGAR CONTAINER

                                                                              今回は NVIDIA Container Toolkit を使って Docker コンテナから Docker ホストの GPU を使う方法について書く。 これまで Docker コンテナで GPU を使う方法は、nvidia-docker と nvidia-docker2 という二つの世代を経てきた。 それも、ここに来てやっと一息ついたかな、という印象がある。 GPU の基本的なサポートが Docker 本体側に取り込まれて (v19.03 以降)、GPU ベンダーはそのドライバを提供する形に落ち着いた。 そして、従来の nvidia-docker2 は非推奨 (Deprecated) な方法となっている。 なお、GPU ベンダーがドライバを提供する、と前述した通り NVIDIA のリソースが一切不要になったわけではない。 そのため、インストール手順やインターフェースの使い勝手という観点で

                                                                                NVIDIA Container Toolkit を使って Docker コンテナで GPU を使う - CUBE SUGAR CONTAINER
                                                                              • jetson nano上でTensorFlow環境を構築する - Qiita

                                                                                方針 ndivia提供のコンテナを使います。この記事で紹介する以外にも、色々なコンテナがあります。 nvidia NGC この記事で使うコンテナはこれです。 Machine Learning for Jetson/L4T The l4t-ml:r32.4.2-py3 tag is available for Python 3.6 with the following components: l4t-ml:r32.4.2-py3 TensorFlow 1.15 PyTorch v1.5.0 onnx 1.6.0 numpy 1.18.2 pandas 1.0.3 scipy 1.4.1 scikit-learn 0.22.2 JupyterLab 2.0.1 note: the l4t-ml container requires JetPack 4.4 Developer Preview (

                                                                                  jetson nano上でTensorFlow環境を構築する - Qiita
                                                                                • タミヤMidnight PUMPKINをJetRacerにしてAI自動運転(ハードウェア編) - Qiita

                                                                                  はじめに DeepLearning これまで全く触れる機会が無かったが、新型コロナウィルスによる自宅待機で時間がたっぷりできた。 いい機会なので、ここぞとばかりにJetson Nanoを購入しイチから勉強してみることにした。 JetRacer NVIDIAのサイトでいくつかの適用事例に市販のラジコンをベースにしたJetRacerなるAIカーがあったので、これを最初の目標に設定した。 やったこと 手持ちのラジコンを改造し、JetRacer化した。(公式のJetRacerよりいくらか少ない部品構成で実現) 屋内の自然環境(床にテープとか貼らない環境)での自動運転に成功した。 とりあえずDeepLearningを手を動かしながら習得する、という流れを経験できた。 結構ボリュームがあるので、2回に分けて記載する。 「タミヤMidnight PUMPKINをJetRacerにしてAI自動運転(ハード

                                                                                    タミヤMidnight PUMPKINをJetRacerにしてAI自動運転(ハードウェア編) - Qiita

                                                                                  新着記事