並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 97件

新着順 人気順

YOLOの検索結果41 - 80 件 / 97件

  • 「Jetson Nano 超入門」を読んでSLAMやってみた - Qiita

    はじめに いつもJotson関連の情報でお世話になっているからあげさんがJetsonNanoの本を書いたので、いつものように真似してみるよ。 (注意!JetPackは4.2.2を使ってね) Jetson Nano本のサポートページ 教材のレベルも高い MIDIや3Dカメラをつかうページでは、D435やポケミクが必要だったりで、さすが超入門。 どこのご家庭にも必ずあるJetsonNanoと違って、デバイス側の在庫がある人は少ないはず・・・だけど、Twitter見てるとみんな持っているから不思議。 ちなみに私のはD435じゃなくてD435iだからセーフ(謎) JetPack 4.3 本が届く前にJetPack4.3がリリースされて、OpenCV4.1がプリインストールされた。 これで長々とビルドする必要がなくなった! (注意!JetPack4.3だとSLAMが動かせなかったので、現状ではJet

      「Jetson Nano 超入門」を読んでSLAMやってみた - Qiita
    • [AI画像解析アプリ開発に必要な知識] 第1話 NVIDIA DeepStream SDKとは - 半導体事業 - マクニカ

      AI監視カメラを活用した画像解析技術は目まぐるしく進化しており、ビジネスの課題解決に導入される方が増えています。 いざ導入を決定して、自社で画像解析アプリケーションを開発することになれば、開発するための専用ツールを使いこなす必要があります。世の中には画像解析アプリケーション開発に関する情報は点在していますが、役立つ情報がまとめられているものは少なく、またソフトウェアエンジニアにとって全く新しい環境に慣れる必要があり、開発に苦労する方が多いという現状があります。 本記事では、画像解析アプリケーション開発をこれから始められる方や、すでに挑戦して挫折してしまった方に、全5話のシリーズ記事で、開発に必要となる基礎知識についてできる限り難しい言葉を使わずに解説します。 [AI画像解析アプリ開発に必要な知識] 第1話 NVIDIA DeepStream SDKとは 第2話 GStreamerとは 第3

        [AI画像解析アプリ開発に必要な知識] 第1話 NVIDIA DeepStream SDKとは - 半導体事業 - マクニカ
      • Jetson NanoでGPUとOpenCVが有効なYOLOをビルドするには

        このような感じで、Jetson NanoにRaspberry PiカメラモジュールV2やUSBカメラを接続して、YOLOでオブジェクト認識を行えるようです。 手順を記録しておこうと思います。 ※20.6.29追記: YOLOv4に対応する新しい記事を作成しました。 Jetson NanoでYOLOv4を動かしてみました 以下はYOLOv3の記事になります。 リアルタイムオブジェクト検出、YOLOはこちらのサイトになります。 YOLO- Real-Time Object Detection こちらのページに記載された手順でdarknetをビルドしますが。 Jetson NanoでGPU、OpenCVを使用するために、次の設定を行いました。 YOLOビルドオプション変更 GPU有効化 Makefileを書き換えて、GPUを有効にしますが。 vi Makefile GPU=1に変更する他に、NV

        • 株式会社クリューシステムズ | 菱洋エレクトロ株式会社

          HOME 事例紹介 株式会社クリューシステム... クリューシステムズが実現した AI搭載カメラは、監視カメラの可能性を広げる ディープラーニングの進化に端を発した現在のAIブーム。すでに、さまざまな場面で実用化されており、私たちのビジネスや日常生活においていろいろな形で利用されている。さらに、AI技術の発達によって、これまでAIが使われていなかった場面においても、AIを積極的に活用しようとする動きも広まっている。 監視カメラとその映像をクラウドで管理するソリューションを提供しているクリューシステムズでは、「NVIDIA® Jetson™」によって監視カメラにAIを搭載した。その開発ストーリーと、AIカメラの可能性について同社の山本有二郞氏から、同社のAIカメラ開発を支援した菱洋エレクトロの大上誠とともに話しを聞いた。

            株式会社クリューシステムズ | 菱洋エレクトロ株式会社
          • チュートリアル: ONNX ディープ ラーニング モデルを使用してオブジェクトを検出する - ML.NET

            ML.NET の事前トレーニング済みの ONNX モデルを使用して画像内のオブジェクトを検出する方法について説明します。 オブジェクト検出モデルを最初からトレーニングするには、数百万のパラメーター、大量のラベル付きトレーニング データ、膨大な量の計算リソース (数百時間の GPU) を設定する必要があります。 事前トレーニング済みモデルを使用すると、トレーニング プロセスをショートカットできます。 このチュートリアルでは、次の作業を行う方法について説明します。 前提条件 Visual Studio 2022. Microsoft.ML NuGet パッケージ Microsoft.ML.ImageAnalytics NuGet パッケージ Microsoft.ML.OnnxTransformer NuGet パッケージ Tiny YOLOv2 事前トレーニング済みモデル Netron (省略

              チュートリアル: ONNX ディープ ラーニング モデルを使用してオブジェクトを検出する - ML.NET
            • 【更に倍速 YOLO / Darknet】NVIDIA Jetson Nano vs Raspberry Pi with NCS2 | MIKI-IE.COM(みきいえMIKIIE)

              全242回のめざましじゃんけん結果取得を通じて一番のテーマは、信頼性の向上です。 「全部の回次を正しく結果取得」 1回1回の信頼性向上・・・まだ、道半ば。誤判定をなくす、(運用コストが低く)信頼性の高いH/Wの導入。そして、H/Wの冗長化 イレギュラー開催などへの対応・・・見えていない部分もありますが、ダブルポイントなどへの対応、年末年始など、個別開催時間への対応など 信頼性を向上するうえで、システムの構成予想削減(よりシンプルに)、より高信頼なハードウェアで。 最近ホットな出来事は、USBカメラの画像が悪い時(太陽の高さなど、テレビの設置環境に依存)の画像検出率低下、さらには誤判定。 これらを回避する途中に、エッジコンピューティングでの画像検出エンジンの高速化が実現しました。 (高速化や信頼性を主テーマとすると、他の方式もありますが、あくまで気になる分野や楽しそうな技術の採用を優先させて

                【更に倍速 YOLO / Darknet】NVIDIA Jetson Nano vs Raspberry Pi with NCS2 | MIKI-IE.COM(みきいえMIKIIE)
              • 赤ちゃんをJetson NanoのエッジAIにも見守ってもらう② -赤ちゃん検知AI-

                ### ライブラリ読みこみ import cv2 import time import threading import datetime import signal import os from ftplib import FTP from PIL import Image, ImageFont, ImageDraw import scipy.io import scipy.misc import numpy as np import argparse import pandas as pd import tensorflow as tf from keras import backend as K from keras.layers import Input, Lambda, Conv2D from keras.models import load_model, Model from

                  赤ちゃんをJetson NanoのエッジAIにも見守ってもらう② -赤ちゃん検知AI-
                • https://www.renom.jp/ja/notebooks/tutorial/image_processing/yolo/notebook.html

                  • 即できる!初めてのJetson nanoでAI入門:DeepStream編 | AI coordinator

                    Jetson nanoはAI入門におすすめ こんにちは。 AI coordinator管理人の清水秀樹です。 コロナが猛威を奮っていますね。 健康には十分気をつけていきましょう。 さて、本日はAI初心者に大変オススメのJetson nanoを使ったAI体験を簡単に実現できる方法をご紹介致します。 Jetson nanoはNvidia社が開発したGPU搭載の小型マイコンになります。 なぜAI初心者にオススメなのかというと、セットアップが滅茶苦茶楽ちんだからです。 通常のPCですといちいちAI開発用にセットアップが必要となりますが、Jetson nanoはもともとAIを活用することを前提に開発したマイコンになっているため、Jetson nano用のOSイメージを活用すればすぐにでもAIを体験できるようになっています。 しかもマイコンそのものは1万ちょっとと金額も安い。 通常のGPU搭載のPCを

                      即できる!初めてのJetson nanoでAI入門:DeepStream編 | AI coordinator
                    • 【YOLOv5】スナックエンドウの収穫に物体検出をつかってみる【独自データ】

                      独自のデータを用いたYOLOv5の物体検出に挑戦していきます👍 前の記事でYOLOv3を使った物体検出を実行したのが面白かったので、YOLOv5でも物体検出やってみました。Windows10環境です。 今回は独自データをつかってみる「基礎編」ですが、様々な応用的な技術にも挑戦しています。よろしければ併せてご覧ください。 前の記事(YOLOv3)についての詳細は↓を見てみてください。

                        【YOLOv5】スナックエンドウの収穫に物体検出をつかってみる【独自データ】
                      • YOLOv5を使った物体検出

                        [!] この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。 物体検出とは 物体検出は、画像・動画内に写っている物体の位置とクラス(人間、車といったカテゴリー)を特定する方法です。 代表的なものとして、顔検出や自動運転などに応用されています。 物体検出の分野では、R-CNN, YOLO, SSDなどの深層学習を用いた手法が開発され、幅広く使われています。 今回は、YOLOv5 ⧉を使って、物体検出をします。 YOLOv5は、2020年6月に公開された最新の物体検出手法です。 他の手法と比べて超高速で、リアルタイムでの実行も可能です。 また、自作データセットをYOLOv5で簡単に学習できることも特徴です。 環境構築 YOLOv5は、Pythonで動作するので、事前にPythonをインストールしてください。 この記事の開発環境は以下の通りです。 バー

                          YOLOv5を使った物体検出
                        • 低コストで導入可能な最新リテールテック!(後半) | Recruit Tech Blog

                          アドバンスドテクノロジーラボの塩澤繁です。 前回、「低コストで導入可能な最新リテールテック!(前半)」と題して、「顧客属性推定」と「視線検出」についてご紹介しましたが、今回は「動線分析」と「商品判別」への利用を想定した検証の取り組みをご紹介します。今回の取り組みも、Nvidia社のJetson Nano を利用し、弊社のオフィス内の環境を使用した検証となっています。 なお、Jetson Nanoに関しては、前回の記事でも紹介させていただいていますので、ご覧ください。 ■動線分析 動線分析とは、店舗等に来た顧客が、どのようなルートで店舗内を移動したかを分析するものです。この分析により、通路の混雑具合や流量、棚や商品陳列の前で立ち止まる滞留時間なども分析することができます。 今回は技術検証の観点から、詳細な分析よりも、Jetson Nanoのエッジ端末でどの程度まで検知できるのかに主眼を置いて

                            低コストで導入可能な最新リテールテック!(後半) | Recruit Tech Blog
                          • YOLOv4: Optimal Speed and Accuracy of Object Detection

                            There are a huge number of features which are said to improve Convolutional Neural Network (CNN) accuracy. Practical testing of combinations of such features on large datasets, and theoretical justification of the result, is required. Some features operate on certain models exclusively and for certain problems exclusively, or only for small-scale datasets; while some features, such as batch-normal

                            • Jetson nano セットアップとUSBカメラを使った画像認識 (YOLO) の動作 - Takahiro Suzuki

                              Jetson nano セットアップとUSBカメラを使った画像認識 (YOLO) の動作 Jetson nanoはNVIDIAのGPUが載った、Raspberry Piサイズのボードです。 簡単な設定でUbuntuとNVIDIA Driver, CUDAが整った環境が揃えられるので、CPUでは重すぎて動かないディープラーニングなどを個人で少し試すのによいデバイスかと思います。 試しにUSBカメラを繋いでYoloを動かしました。 使用したハードウェア Jetson Nano Developer Kit 128 GB Micro SD カード 電源アダプタ 5V/4A USBカメラ USB WiFiモジュール ジャンパーピン J48にジャンパーピンを接続するとDCジャック電源供給に切り替わります。デフォルトのUSB電源供給だと処理負荷が増えた際に安定動作しません。 初期セットアップ Wifiで

                              • [YOLOv8 Instance Segmentation] 「きのこの山」に潜伏する「たけのこの里」を機械学習で見つけてみました 〜データセットは、Segment Anything Modelで自動的に生成されています〜 | DevelopersIO

                                [YOLOv8 Instance Segmentation] 「きのこの山」に潜伏する「たけのこの里」を機械学習で見つけてみました 〜データセットは、Segment Anything Modelで自動的に生成されています〜 1 はじめに CX事業本部製造ビジネステクノロジー部の平内(SIN)です。 YOLOv8は、イメージ分類・物体検出・セグメンテーション・骨格検出などに対応していますが、今回は、セグメンテーションモデルをファインチューニングして、「きのこの山」と「たけのこの里」を検出してみました。 最初に、動作している様子をご確認下さい。比較的に精度高くセグメンテーション出来ていると思います。 2 データセット作成 セグメンテーションモデルを学習する為のデータは、下記のように、対象物の輪郭座標が必要であり、これを大量に作成するのは、結構な膨大な作業量になってしまいます。 そこで、この作業

                                  [YOLOv8 Instance Segmentation] 「きのこの山」に潜伏する「たけのこの里」を機械学習で見つけてみました 〜データセットは、Segment Anything Modelで自動的に生成されています〜 | DevelopersIO
                                • DeepstreamでストリームAI処理する方法について

                                  2020年1月7日に行われた第4回 Jetsonユーザー会 「Jetson Nano超入門」著者パネルディスカッション+LT大会に登壇させていただきました。 関係者のみなさま、ご参加いただいたみなさま、ありがとうございました。 で、資料をSlideShareにアップしたのですが、基本的には口頭で説明するためのベースとしての資料として作ったものですので、ブログ記事として解説をアップすることにしました。 まず、なんでDeepStreamを紹介しようと思ったかと言いますと、以下3つの理由からです。 何か話してよと言われたのが12月半ばで1か月未満でできることを考えた ちなみに、依頼が来てから慌ててJetson nanoを買いました。 DeepStreamに関して、NVIDIAさんのプレゼンでしか見たことないよという声があった 「Jetson Nano超入門」にはさらっと紹介程度にしか触れられてい

                                    DeepstreamでストリームAI処理する方法について
                                  • 店舗に設置された監視カメラの画像を使って来店客の状態を識別してみる - Qiita

                                    はじめに 小売店舗の経営者さんから「監視カメラの映像を使って来店客の分析をしたいけど、何か方法ないかな?」と質問があり、詳しく聞いてみるとカメラ画像とレジデータの突合をし、商品を購入されたお客さんの性別や年齢と購入されたものを分析して、仕入れの計画を立てる参考資料にしたいとのこと。 ということで、手始めに監視カメラのことを調べ、監視カメラの画像をパソコンに取り込めるようにし、カメラの画像からレジでお会計をされた来店客を抽出して、時間ごとに表示することで、レジの記録と突合しやすくなるのかなと考え、試してみたら意外と簡単にできたので、以下に手順をまとめます。 なお、監視カメラはレジカウンターの斜め後ろ奥に設置され、レジカウンター越しに店内を映しています。 やったこと 監視カメラの画像をパソコンに取り込む 監視カメラの画像から人を抽出 抽出した人の状態を識別 動作環境 機器 監視カメラ(CVI方

                                      店舗に設置された監視カメラの画像を使って来店客の状態を識別してみる - Qiita
                                    • YOLOとTensorflowとOCRでゼッケン番号検索システム

                                      ゼッケン自動検出システム α版公開中 2019/3/7 ゼッケン自動検出システム Zetect α版 公開しました。 本文 最近はpythonで画像認証や検出システムを作っている志知です。 今しがた利用しているのはYOLOとTensorflow。 Tensorflowとはなんだろう、と言う話もできますが ここは一つ会社のブログですので『どう使うか』という点で話を広げたいと思います。 YOLOとTensorflow とはいえまず機能の説明は必要なので少し触れます。 TensorflowとはGoogleが開発しオープンソースで公開している、 機械学習に用いるためのソフトウェアライブラリです(wikipedia調べ)。 つまりこれを使えば誰でも機械学習ができるんだ という大変親切便利なライブラリです。 YOLOというのは画像認識のアルゴリズムで、物凄く端的にいうと 『これ(画像)』が何かを調べる

                                        YOLOとTensorflowとOCRでゼッケン番号検索システム
                                      • リアルタイムの物体検出手法ーーYOLO

                                        こんにちは、GMOアドマーケティングのS.Rです。 皆さんDeeplearningのモデルで物体検出をやったことがありますか。今回はリアルタイムの物体検出手法の一つであるYOLOを紹介したいと思います。 1. YOLOとは 「YOLO」は「You Only Live Once」の略称です。 図1YOLOの英語の意味 今回紹介するYOLOは2016年Joseph Redmonがを表したリアルタイム処理できる高精度な物体検出のアルゴリズムです。なぜこの名前を使っていたのかは後で説明します。 図2:YOLOで処理した弊社登山部の写真 2. 物体検出とは 物体検出とは、入力画像から指定された物体の位置とカテゴリーを検出することを指します。 図3;物体検出 3. 物体検出の用途 物体検出は自動運転、セキュリティシステム、スポーツ放送など様々な領域に利用されています。 図3:物体検出の用途 4. 物体

                                          リアルタイムの物体検出手法ーーYOLO
                                        • 画像認識AI YOLOの改良版「YOLO-NAS」登場|はまち

                                          YOLOの改良モデル YOLO-NASが公開されていたので、ひとまず静止画の推論をGoogleColabで試食してみました。最近LLMの開発のニュースばかり見ていましたが、画像認識AIも着々と性能向上しているようです。 なお、カスタムデータセットのファインチューニングはColab無料枠のメモリ容量では動作しないようなので、また機会があれば試してみようと思います。 https://colab.research.google.com/drive/1q0RmeVRzLwRXW-h9dPFSOchwJkThUy6d#scrollTo=tQjCqyL9vCnQ YOLO-NAS モデル概要Deci-AI,Incが配布 独自の Neural Architecture Search エンジン (AutoNAC) を活用して、世界最高の精度とレイテンシのパフォーマンスを提供する新しいオブジェクト検出アーキ

                                            画像認識AI YOLOの改良版「YOLO-NAS」登場|はまち
                                          • YOLOv3

                                            https://pjreddie.com/darknet/yolo/

                                              YOLOv3
                                            • ナカシャクリエイテブ株式会社

                                              オリジナルで学習したモデルを使った物体検出 YOLOv3の環境構築が終わり、一通り学習済モデルで「おぉぉぉ」と興奮した後は、オリジナルモデルの学習に興味が沸いてきます。 YOLOv3の学習については、下記ような参考サイトで手順を確認できます。 参考にしたサイト AlexeyAB/darknet YOLOオリジナルデータの学習 YOLOオリジナルデータの学習その2(追加学習) YOLO v3による顔検出:02.Darknetで学習 Windows 10上のDarknetでYolo v3をトレーニングしOpenCVから使ってみる 以下では、私が実際にやってみた「勘所」の部分を記載します。 どれくらいのデータを用意すれば良いか? 最低:1カテゴリに対して100枚 基準:1カテゴリ1000枚 推奨:1カテゴリ5000、10000枚(高い精度と検出率、差異が少ない対象を扱っている場合、汎化性能を求め

                                                ナカシャクリエイテブ株式会社
                                              • Yolov3による漫画の登場人物の顔認識 - Qiita

                                                Abstract 漫画研究というのは日本ではちらほらあるものの、世界的にみるとまだ十分ではないように感じる。 実際の人間と漫画の人間とでは目の大きさや鼻などの形やバランスが異なり、損失関数などの設計も変わる場合がある。 とりあえずは上のような難しいことは考えずYolov3というモデルで漫画の登場人物が男か女かを認識することを考える。 結果は以下の通りである。ここまでのプロセスを解説する。 (諫山創:進撃の巨人1) Yolov31のv3はバージョン名であり、Yolo(You only look once:一度しか見ない)の略称である。 簡単な説明は私の記事ですが2と3を参考にしてください。 詳細は4を参考にしてください。 Implements まずは1を参考にしてGithubからdarknetをダウンロードなどを済ます。 次に教師データを作成する。 ツールはtzutalinさんのLabelI

                                                  Yolov3による漫画の登場人物の顔認識 - Qiita
                                                • .NETで機械学習を試してみる ML.NET編 第1回 · A certain engineer "COMPLEX"

                                                  https://docs.microsoft.com/ja-jp/dotnet/machine-learning/how-does-mldotnet-work ML.NET を使用すると、オンラインまたはオフラインのどちらのシナリオでも、.NET アプリケーションに機械学習を追加できます。 この機能により、データを使った自動予測をアプリケーションで利用できるようになります。ML.NET を使うためにネットワークに接続する必要はありません… 要するに .NETアプリケーションに機械学習の機能を追加 オンライン、オフラインどっちも大丈夫だけどオフライン対応すればネットワークは気にしなくてもいい 32bitアプリも大丈夫 ただし、Tensorflow、LightGBM、ONNXに関連する機能は使えない って感じ。 現状、ディープラーニングの機能をエコシステム、特にデスクトップアプリに組み込むには

                                                  • 第2回ゼロから始めるJetson nano : とりあえずデモを動かす方法|デジタルライト(Digital-light.jp)

                                                    前回の記事ではJetson nanoのセットアップをしてから、Ubuntの画面を表示させるまでご紹介しました。 第1回ゼロから始めるJetson : nanoセットアップからUbuntのGUIウィンドウまで 今回は、Jetson nanoを調べると記事やYouTubeで見られるサンプルのデモ画面を実行する方法についてご紹介します。 というのも、私自身、Jetson nanoをノリで買ってしまったものの、最初はサンプルの実行の仕方がわからずに迷った為、私と同じように、うっかりJetson nanoを購入してしまった人向けに、とりあえずデモを動かす方法をご紹介します。 JetPackのサンプルはこちら 「Jetson nano Developer kit」のユーザーガイドにJetPackに入っているサンプルプログラムの場所が書かれています。 TensorRT、cuDNN、CUDA、Multim

                                                      第2回ゼロから始めるJetson nano : とりあえずデモを動かす方法|デジタルライト(Digital-light.jp)
                                                    • YOLOv3で金魚検出サーバ... - みらいテックラボ

                                                      CODE for YAMATOKORIYAMAの取組みの一環として, 「Kingyo AI Navi」[1]なる金魚の種類識別を活用したアプリのプロト開発を行っている. 現在は, Cloud AutoML Visionを使って種類識別を行っているのだが, 水槽の中の泳いでいる金魚1匹に注目して, その1匹だけが写った写真を撮るのは結構難しい. そこで, 前回[2]複数の金魚が写った写真でもいけるようにするために, Cloud AutoML Vision Object Detectionを少し試してみた. しかし, 運用するには結構費用がかかりそうだったので, 今回はYOLOv3を使って金魚の検出サーバを作ってみることに... 1. サーバ側 サーバ側は, Python + Flask + YOLOv3で作成することにした. PythonからのYOLOv3読み出しについては, こちらの記事[

                                                        YOLOv3で金魚検出サーバ... - みらいテックラボ
                                                      • Jetson Nano で AI応用ソフトを作る - Take’s diary

                                                        今回は Jetson nanoにインストールしたOpenFrameworksから、OpecCVとDarknet(YOLO)を動かす方法を書きます。 Jetson nanoでAI系のソフトをインストールして動かしてみたけれど、これを利用して自分の目標とする「何か」を作るとき、その先膨大な解説と格闘しなければならず、大概行き詰まってしまいます。また、nanoはPI3に比べれば早いといってもIntel の汎用CPUに比べると1/4位のスピード。AIエンジンを利用して応用ソフトを組む場合、インタープリタ型言語であるPython等を使うと、応用部分であきらかに遅くなってしまう傾向がある点は否めません。CythonやSWIGを使えば早くなりますが、結局C言語に戻ってしまうことになります。やはり最初からCやC++等を使って、なるべくCPU処理部分のスピードを上げるのがnanoでは得策と思われます。AIの

                                                          Jetson Nano で AI応用ソフトを作る - Take’s diary
                                                        • Jetson Nanoで物体認識のデモを動かす - Qiita

                                                          前回に続いて、今回はUSBカメラを用いてJetson NanoのTensorRTのデモを行ってみます。こちらはGitHubにもチュートリアルが掲載されています。 Jetson Nanoのセットアップ 前回の記事を参照してください。 JetsonNanoのセットアップ 今回使用するもの USBカメラ(後述) 1. Gitレポジトリのクローン コンパイル 'Ctrl+Alt+T'でターミナルを立ち上げます。 以下のコマンドで、GitHubのリポジトリをクローンしてコンパイルしていきます。 $ sudo apt-get install git cmake $ git clone https://github.com/dusty-nv/jetson-inference

                                                            Jetson Nanoで物体認識のデモを動かす - Qiita
                                                          • 「NVIDIA・ Jetson nanoによるリアルタイム人物カウントについて」

                                                            スイス・マッターホン 1.はじめに 2.Jetson nano導入手順 3.Jetson nano人物カウント実装 4.データ連携&データ活用 話せばわかるコンピュータの会 千葉 忠悦 2020年02月22日 「NVIDIA・ Jetson nanoによるリアルタイム人物カウントについて」 1.はじめに 1.はじめに 2.Jetson nano 導入手順 3.Jetson nano人物カウント実装 4.データ連携&データ活用 なぜ Jetson nanoを使おうと考えたのか センサーサーバ 離反;2 近接;2 リセット 1)ドップラセンサーで通行量をカウント 2)時系列での通行量の把握 *これは、すでに実現していた ZigBee お近づきカウンター・ドップラーセンサー版 クラウド側 USBカメラ例 BUFFALO 200万画素WEBカメラ 広角120 °マイク内蔵 ブラック BSW200M

                                                            • 低コストで導入可能な最新リテールテック!(前半)+Jetson Nanoの紹介 | Recruit Tech Blog

                                                              アドバンスドテクノロジーラボの塩澤繁です。 世界中でキャッシュレス化が急速に進みつつある昨今では、Amazon Goを代表とした、小売店でイノベーションを起こすリテールテック(Retail Tech)技術が注目されています。 現在のリテールテックでは、主に顧客属性、行動履歴、顧客導線や商品判別といった、店舗内の情報の分析が行われています。 これらの処理、分析には通常、高額なGPUを活用した画像解析、AIが使われます。Amazonや大手メーカー様等、潤沢な資金、リソースを保有している企業が先行していますが、小規模店舗にとっては、敷居が高いのが現実です。 私のチームでは以前より、いかにコストをかけずにリテールテックを実現させるかを研究してきました。例えば、NVIDIA Jetson nano(※)(販売価格1万円強程度)とカメラモジュール、ディープラーニング技術を組み合わせた分析手法などです。

                                                                低コストで導入可能な最新リテールテック!(前半)+Jetson Nanoの紹介 | Recruit Tech Blog
                                                              • 『Jetson nanoを使った人認識・物体認識用AI開発キットの販売:新型肺炎対策用の社会的距離』

                                                                1.はじめに 本日、新製品「Jetson nanoを使った人認識・物体認識用AI開発キット」を販売開始します。新型肺炎対策用の社会的距離のAI分析から自動運転用物体認識までGPU搭載Edgeデバイスの完全活用を目指します。詳しくは弊社ホームページまで。 https://spectrum-tech.co.jp/products/jetson.html 商品説明 ーーーーーーーーーーーーーーー 0.概要 人認識・物体認識AI開発キットは、Nvidia製Jetson nanoを使用して、基礎(画像分類、物体認識による色分け、ポーズのリアルタイム分析、MNISTモデル、Yoloモデルなど)から社会的距離のAI分析の応用まで提供します。初心者から上級者まで利用可能で、特に各種プログラム(TensorRT,Opencv,Openpose,Pytorch等)は事前にインストールしており、難しいインストー

                                                                  『Jetson nanoを使った人認識・物体認識用AI開発キットの販売:新型肺炎対策用の社会的距離』
                                                                • 赤ちゃんをJetson NanoのエッジAIにも見守ってもらう③ - LINEにメッセージ -

                                                                  Jetson nanoに(まだまだ未熟な)AIをのけて、赤ちゃんの状態を検知できるようになったので とりあえずシンプルなところから 状態を検知して、LINEにメッセージを送ってくれるようにしたいと思います。 Line Developerのフリープランは1000通/月のメッセージの制約があるので、 下記の条件でメッセージを送る予定です。 8,12,18時:定期的なメッセージを送信 泣いた時等:特定の状態を検知するたびにメッセージ

                                                                    赤ちゃんをJetson NanoのエッジAIにも見守ってもらう③ - LINEにメッセージ -
                                                                  • JETSON NANOで遊ぶ!【DeepStream編】 | Macro Theos (マクロ・テオス)

                                                                    今日は朝から昨日(5日)のドカ雪のおかげで、雪かきで疲れました。(笑) かなり腰にきています。 1日で40センチ以上積もりました。 現在もまだちらほら雪が降っています。 という事で多少疲れてはいますが、 今回は、NVIDIAが提供しているDeepStream SDKの機能を試してみました。 1.DeepStream SDK とは? (説明からの抜粋です) (1)カメラ、センサー、IoTゲートウェイからのデータをリアルタイムで分析 NVIDIAのDeepStream SDKは、マルチセンサー処理だけでなく、AIベースのビデオおよび画像を理解するための完全なストリーミング分析ツールキットを提供します。 DeepStreamは、ピクセルとセンサーデータを実用的な洞察に変換するためのエンドツーエンドのサービスとソリューションを構築するプラットフォームであるNVIDIA Metropolisの不可欠

                                                                    • Jetson Nanoを使ってYOLOでリアルタイム物体認識する - 動かざることバグの如し

                                                                      Jetson Nanoにカメラを接続して、YOLOでリアルタイム物体認識を行う 用意するもの Jetson Nano (当然) Raspberry Pi Camera V2でないと動かないので注意 【公式】 Raspberry Piカメラ Official V2 for Pi 913-2664 国内正規代理店品 KSY(RS) 出版社/メーカー: Raspberry Pi発売日: 2016/04/25メディア: Tools & Hardwareこの商品を含むブログを見る あと認証があるらしくパチもんも動かないらしい カメラ&GPU使うと結構電気消費するらしいので、できればMicroUSB経由ではなくちゃんとした電源経由のほうが安定する。(たまにハングアップする インストール YOLOは所詮物体検出アルゴリズムの一種にすぎないので、インターフェイスが必要。が、コードは書きたくないのでYOLO

                                                                        Jetson Nanoを使ってYOLOでリアルタイム物体認識する - 動かざることバグの如し
                                                                      • ピーマン農家でないけど、ピーマン検知AIをJetson Nano で作ってみた -AI使う編説明- - ひつじ工房

                                                                        アノテーション アノテーションにはLabelImgを使用。Macだとvottでアノテーションしたデータが出力できなかった。 https://github.com/tzutalin/labelImg インストール方法使い方などは、上記か、他のサイトを参照いただいて、ここでは説明を省きます。 使い方は下記のようにシンプルです。vottよりわかりやすいです。 アノテーションした結果が、To GoogleDriveのannotatedに入っているファイルになります。 GoogleDriveにデータ移動 GoogleDriveに適当なフォルダを作成します。 私の場合Colab Notebooksの中にPiman2のフォルダを作成 To GoogleDriveのデータをフォルダごと作成したフォルダに移動 GoogleColaboratoryで学習 GoogleColaboratoryで、ファイル>ノー

                                                                        • 【物体検出2023】YOLO_NASを試してみる 〜導入からデモまで〜 - つくもちブログ 〜Python&AIまとめ〜

                                                                          YOLO-NASとは YOLO-NASは、2023年5月に登場した最先端の性能を誇るオブジェクト検出モデルです。 YOLOv5、YOLOv6、YOLOv7、およびYOLOv8などの他のモデルを上回る独自の精度と速度性能を誇っています。このモデルは、Deciの独自のニューラルアーキテクチャ検索技術であるAutoNAC™によって生成されました。AutoNAC™エンジンは、任意のタスク、データの特性、推論環境、およびパフォーマンス目標を入力し、特定のアプリケーションに適した最適なアーキテクチャを見つけることができます。このエンジンは、データとハードウェアの認識に加えて、推論スタック内の他のコンポーネントも考慮しています。 YOLO-NASは、他の同等のモデルと比較して約0.5 mAPポイントの精度が高く、10~20%高速です。この性能は、Coco 2017 ValデータセットとNvidia T4

                                                                            【物体検出2023】YOLO_NASを試してみる 〜導入からデモまで〜 - つくもちブログ 〜Python&AIまとめ〜
                                                                          • YOLO V5 の使い方|npaka

                                                                            1. YOLO V5「YOLO V5」は物体の位置と種類を検出する機械学習アルゴリズムです。 「YOLO V5」には、以下の4種類の大きさのCOCOモデルが提供されています。大きい方が精度が上がりますが、速度は遅くなります。 以下のグラフは、1枚の画像の推論にかかる時間(ms)の比較です。バッチサイズ8のV100 GPUを使用し、画像の前処理と後処理も含みます。 2. YOLO V5 のインストール「YOLO V5」のインストールには、「Python 3.8以降」が必要です。 今回は、AnacondaでPython環境を構築して、インストールします。「macOS10.15.6」で動作確認しています。 $ conda create -n yolov5 python=3.8 $ conda activate yolov5 $ git clone https://github.com/ultra

                                                                              YOLO V5 の使い方|npaka
                                                                            • 【YOLOv3】オリジナルの学習済みモデルを作成する - Unlit Sphere

                                                                              OverView 画像から手の位置を認識をさせたかったんじゃぁ. お.いい高速な画像認識アルゴリズムがある.つかってみるか... ということで,YOLOv3で自分で作成したデータを学習させる方法 つまりオリジナルの学習済みモデルの作り方を書き残します. YOLOはYou Only Look Onceの略,物体検出アルゴリズム. darknetはC/CUDAで開発されたOSSニューラルネットフレームワーク Environment macOS Mojave version.10.14.3 Python 3.7.2 Method 1. darknetをmake & Install https://github.com/pjreddie/darknet からdarknetをcloneする git clone https://github.com/pjreddie/darknet cd darkne

                                                                                【YOLOv3】オリジナルの学習済みモデルを作成する - Unlit Sphere
                                                                              • YOLOv3 + TensorFlow 2.0を試してみる - みらいテックラボ

                                                                                昨年末に, こちら[1] のページで, YOLOv3アルゴリズムをTensorFlow 2.0で実行できるように対応したバージョンがあることを知りました. (TensorfFlow 1.xで動作するものがあることは知ってましたが....) 現在, ピープルカウンタの開発[2][3]でYOLOv3[4]を利用しているので興味がわき, 少し試してみることにした. 基本的には, こちら[5]のGithubのページのリポジトリをダウンロードし, 動作させると問題なく動きます. ただ, グレースケール画像を扱ったり, モデルの入力画像サイズを変更したりする場合, 正常に動作しなかったので, メモとしてまとめておく. 1. 基本的な動作 Githubの説明のとおりやれば, 問題なく動作しました. 1.1 学習済YOLOv3モデルの変換 # yolov3 wget https://pjreddie.co

                                                                                  YOLOv3 + TensorFlow 2.0を試してみる - みらいテックラボ
                                                                                • Macでyolo v3を動かして画像認識する - Qiita

                                                                                  目的 Macでyolo v3を動かして画像認識した際の備忘録です YOLO: Real-Time Object Detection 準備 下記サイトを参考にさせて頂きyolo v3の動作環境構築します。 YOLOv3をCPU環境でpython使ってリアルタイム画像認識を動かしてみた Macで物体検知アルゴリズムYOLO V3を動かす pytorch-yolo-v3 下記の通りcondaを使ってYolov3用の環境を構築して試しました。

                                                                                    Macでyolo v3を動かして画像認識する - Qiita