並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 826件

新着順 人気順

OpenCVの検索結果361 - 400 件 / 826件

  • PythonでRaspberryPiで撮影したカメラ映像をリアルタイム転送する - Qiita

    はじめに 本記事は備忘録の一部です。 監視カメラでも作ろうかと過去のコードをぴっぱり出したところ、コピペでは動作しなくなっていたので、最近の仕様変更に合わせたコードへの修正となります。 具体的には、RaspberryPiで取得したデータをほかのデバイス(Pythonが動くもの)で表示させるというものになります。 本コードは拡張性が高く、リアルタイム映像をAI・機械学習等の処理にかけるときに別のサーバー上で処理ができるので大変重宝しております。簡易監視カメラにもなりますし、Pythonで書かれているのでNAS等に動画を保存しておくことも可能です。可能性は無限大と言えますね! 中華のIPカメラでやれよって話ですけどね。 目標 本記事では映像の転送にPython3.7を使用しております。いまだにRaspberryPiの標準装備だったので採用しました。 ライブラリにはSocketserverとOp

      PythonでRaspberryPiで撮影したカメラ映像をリアルタイム転送する - Qiita
    • 列優先(Column-major),行優先(Row-major)は複数ある - Qiita

      はじめに 行列における列優先,行優先と言った場合,データ保持形式と数学的表現の2つの視点があります. 初学者は時に混同して説明してしまいがちですが,それぞれ別の概念であり,各項目における行・列の相反が成立する可能性がありますので,分けて認識しましょう. 本記事では,3次元幾何計算の文脈において,それらがどのように異なるのか,互いの変換はどう行うかを解説します.ついでに,列優先,行優先と合わせて語られることのある右手系,左手系についても言及します. データ保持形式における列優先,行優先 Column-major order, Row-major orderと書いた場合,こちらの意味になります. 本記事では,列優先データ順,行優先データ順と呼ぶことにします. 行列をプログラム内でデータ保持する場合,データアクセスの効率を考慮してメモリの連続領域にデータが置かれるのが多数です.そのデータの順が,

        列優先(Column-major),行優先(Row-major)は複数ある - Qiita
      • Slashcam News : Autodesk Smoke 2013 For Mac

        Visiteurs depuis le 27/01/2019 : 4555 Connectés : 1 Record de connectés : 23 Slashcam News Autodesk Smoke 2013 For Mac Free DownloadTools and technical news about digital cinema's workflow, DSLRs and more. Follow Digital Cinema Tools on Twitter @tierible. Filtered by GoPro Hero 3. During this hour-long in-depth session, Stuart will look at some of the techniques WTHR employed making this ident --

          Slashcam News : Autodesk Smoke 2013 For Mac
        • Python、ale_c.dllとopencv系のヤツ、探してゲットできるものまとめ

          タルムード翻訳中。少々時間かかりそう……まあ多分少なくとも数年くらいは必要かなと(笑)解説書より本体を丸ごと読むんだよと思っていたものの、解説書をかじる方が賢明かもしれません。 300円くらいの安いやつ読書してみては。読書のすすめ。 「プログラミングは検索が半分」とかいう愚痴(?)が聞こえてきたりもするが、確かにその通りかもという気がすることも時々ある。 実際ちょっと検索方法を変えてみるとか、情報を仕入れてみれば案外あっさりと手に入れられるものも多々あるのでいくつか紹介がてらついでにここに貼って必要な時にダウンロードできるようにしとこうという思惑で書いてみることに。 ⑴createsamples.exe(opencv_createsamples.exeとも) haartraining.exe(opencv_traincascade.exeとも。両方とも名前は短くできます) この二つ探すのに

            Python、ale_c.dllとopencv系のヤツ、探してゲットできるものまとめ
          • Realsenseの赤外線カメラを利用して簡易モーショントラッキングを行う - Qiita

            概要 この記事は 3D Sensor Advent Calendar 2019 の9日目の記事になります。 OptiTrack等のモーションキャプチャシステムが行っている赤外線カメラでマーカーをトラッキングして位置を追跡する手法をRealsenseの赤外線カメラと再帰性反射テープを使って作ってみたので紹介します。 出来る事 再帰性反射テープを張り付けた物体の位置をトラッキング出来ます。90FPSでトラッキング出来るので素早い動きもトラッキング出来ます。これらの処理を全てUnity上で行います。 以下のような事ができます。 #RealSense Realsense二台で再帰性反射材使ったモーショントラッキング。遅延も気にならないし、90FPSとれるので動きが早くてもトラッキング出来る。 pic.twitter.com/ZifZkVvRIW — unagi (@UnagiHuman) Marc

              Realsenseの赤外線カメラを利用して簡易モーショントラッキングを行う - Qiita
            • カメラキャリブレーション — OpenCV-Python Tutorials 1 documentation

              更に,カメラの内部パラメータや外部パラメータといった情報も必要になります. 内部パラメータ(Intrinsic parameters) とはカメラ固有のパラメータを指し,焦点距離 (),光学中心, () などです.内部パラメータはカメラ行列とも呼ばれます.このパラメータはカメラ固有のものであるため,一度計算すればそれ以降保存した値を使い続けられます.内部パラメータは3x3の行列として以下のように表されます: 外部パラメータはある座標系における3次元点の座標を別の座標系での座標に変換するための回転と並進のパラメータを指します. ステレオアプリケーションを作るためには,まず初めにこれらの歪みを解消(補正)する必要があります.これらのパラメータを推定するためにはチェスボードのように,(歪みが無かったとしたら)画像中でどのように見えるか想像できるパターンを何枚か撮影します.そのような特殊パターン上

              • A Complete guide to Semantic Segmentation in 2024

                Published: May 19, 2021 ● Updated: Mar 21, 2024 IntroDeep learning has been very successful when working with images as data and is currently at a stage where it works better than humans on multiple use-cases. The most important problems that humans have been interested in solving with computer vision are image classification, object detection and segmentation in the increasing order of their diff

                  A Complete guide to Semantic Segmentation in 2024
                • OpenCVでQRコードを複数同時検出する方法 [detectAndDecodeMulti] - OPTiM TECH BLOG

                  OPTiM TECH BLOG Advent Calendar 2020 12/15 の記事です。 R&Dの加藤です。最近のマイブームは市場で魚を買う事です。(切り落としやテールですが)マグロも数百円で買えます。 今回は、タイトルにもある通り、OpenCVでQRコードを複数同時検出する方法をコードや動画を交えて紹介します。 前置き 覚えている方も多いかもしれませんが、MLKitの紹介をした時に以下のように説明しました。 OpenCVのQRコード検出のみ現状でマルチ検出に対応していません。 しかし、マルチ検出のプルリクエストが出ているので、気長に待ちましょう。 実はOpenCV 4.3からQRコード*1の複数同時検出に対応ました*2! という事で、OpenCV 4.3以降であれば簡単にQRコードの複数同時検出が可能になりました。 今までは複数のQRコードがある場合にどちらも検出できなかった(

                    OpenCVでQRコードを複数同時検出する方法 [detectAndDecodeMulti] - OPTiM TECH BLOG
                  • ゼロから学ぶディープラーニング推論

                    本サイトの活用方法 現在、たくさんのディープラーニング技術情報が溢れていますが、数学や専門用語、プログラミング、フレームワーク、環境構築、用途、種類、フェーズなど、理解しなければならい項目が多く、何から学習すれば良いか分からず、ハードルが高いのが現状です。 ディープラーニングは、主に「学習」と「推論」に分かれます。まずは理解し易く応用に繋がる「推論」を学ぶことが、ディープラーニングを使いこなすことへの近道となります。「OpenVINO™ ツールキット」は、非常にシンプルなコード記述が可能で、豊富なサンプルを持っている無償ツールです。さらに「Neural Compute Stick」と「RaspberryPi」を使うことにより、小さくて安価な人工知能を作り出すことが可能です。本サイトでは、初心者の方から理解できるように、「ディープラーニングとは何か」「そもそも何が必要でどこで買えば良いのか」

                      ゼロから学ぶディープラーニング推論
                    • Google Colabの使い勝手を向上させる10の秘訣

                      1.Google Colabの使い勝手を向上させる10の秘訣まとめ ・気軽にブラウザでPythonやライブラリを試せるGoogle Colabを更に便利に使うためのヒント ・ファイルのアップロード、ダウンロード、Googleドライブのマウントからシェル起動 ・github連携、DataFrame操作、TensorBoard呼び出し、子猫呼び出し、コーギー呼び出し 2.Google Colabを便利に使う為のTips 以下、towardsdatascience.comより「10 tricks for a better Google Colab experience」の意訳です。元記事の投稿は2020年6月5日、Cyprien NIELLYさんによる投稿です。 アイキャッチ画像はColabではなくてインドのColabaにあるタージマハル・ホテルで、クレジットはPhoto by Raj Rana

                        Google Colabの使い勝手を向上させる10の秘訣
                      • [OpenCV] Pytorchの手書き数字(MNIST)分類モデルをOpenCVから利用してみました | DevelopersIO

                        1 はじめに CX事業本部の平内(SIN)です。 Pytorch入門ということで、MNIST(手書き数字のデータセット)から作成したモデルを使用して、OpenCVでWebカメラの動画を推論にかけてみました。 使用したモデルのコードは、Githubで公開されている、Pytorchの公式サンプルコードです。 https://github.com/pytorch/examples/blob/master/mnist/main.py 最初に動作しているようすです。 推論の対象となっているのは、画面の中央だけで、別ウインドウに表示されている部分です。 2 モデル 公開されているサンプルコードは、以下のようになっています。 (1) データセット データセットは、torchvisionによって、MNISTが利用されています。 取得時に、transformsによる変換を行って、訓練用とテスト用のデータロー

                          [OpenCV] Pytorchの手書き数字(MNIST)分類モデルをOpenCVから利用してみました | DevelopersIO
                        • ゼロから作るPHPとPythonの連携 on Laravel - Qiita

                          はじめに PHPからPythonを実行して画像認識した結果を表示するソフトをLaravelベースで実装してみます。 画像認識の実装はTensorFlowでMNISTの学習をしてみるで、学習とテストを分離したものを実装していたので、それをベースにします。 [2020/4/15]ビューにBootstrapを導入 環境 OS: Ubuntu 18.04.4 LTS (Virtual BOX上) PHP:7.2 Laravel:7.5.2 Python:3.8.0 tensorflow:1.14.0 numpy:1.18.2 opencv:4.2.0.34 Ubuntu 18.04.4 LTSにデフォルトで入ってるPython3は3.6.9だったので、最新に上げています。併せて、Pythonで使うライブラリも入れます。 $sudo apt install python3.8 $sudo apt-g

                            ゼロから作るPHPとPythonの連携 on Laravel - Qiita
                          • OpenCVの使い方 | Tellus

                            このチャプターでは、コンピュータビジョン向けライブラリOpenCVを使った画像処理の基本的な方法を習得します。 本レッスンの内容を進めるにあたり、PCのメモリ容量として8GB以上が必須(16GB以上を推奨)となります。それよりも少ないメモリ容量のPCで実行すると、メモリの空き部分がなくなってしまい、コードの実行が強制的に終了するかもしれませんので、注意してください。 OpenCVは、インテル社が開発したオープンソースのコンピュータビジョン向けライブラリです。 画像の読み込みや書き込み、拡大縮小・回転、色変換などの基本的な加工だけでなく、輪郭抽出やノイズ除去などのフィルタ処理、物体が写っている領域を判定する物体検出などの機能もあります。また動画ファイルを読み込んで、1コマずつ処理することもできます。 OpenCVは、さまざまなプログラミング言語から利用できるライブラリですが、本レッスンでは、

                            • Python でイラストの塗り残しを塗る - Qiita

                              はじめに 下図のようなイラストの塗り残しを塗る処理がペイントソフトでは一発で出来なさそうだったので、Python と OpenCV で実装してみます。例えばアクリルキーホルダーなどの白版を入稿する場合、塗り残しがあると品質に影響が出る危険性があるため、しっかりと処理していきます。 入力画像 これは意図的に作成した画像ですが、線画と塗りの境界に塗り残しがあり、背景の緑色が透けてしまっていることが分かります。 (※分かりやすいように背景を緑色にしています。) アルゴリズムの説明 画像のアルファ値が 10以下の領域を $\boldsymbol{A}$、画像のアルファ値が 10 より大きく254以下の領域を $\boldsymbol{B}$ とします。このとき領域 $\boldsymbol{A}$ は本来透過しているべき領域であるとみなすことができます。一方、領域 $\boldsymbol{B}$

                                Python でイラストの塗り残しを塗る - Qiita
                              • ラズパイとTypetalkで今年の夏こそ植物の観察日記をやりとげる | 株式会社ヌーラボ(Nulab inc.)

                                こんにちは、ヌーラボTypetalkチームの伊藤です。 本記事はブログリレーの7/26分になります。 植物の観察日記をつけたことがありますか? 皆さんは、植物の観察日記をつけたことがありますか? 夏休みになると宿題として課される、アレです。 私はいままで一度もこの課題をやり遂げられたことがありません。私の夏休みは常に「植物の観察日記をやり遂げられなかった」という悔しさで幕を閉じます。 20年以上経った現在でも、夏がくると思い出します。このままでは夏を心から楽しむことができません。そこで、この夏をかけて自身のトラウマを克服すべく、植物の観察日記にリベンジすることにしました。 なぜやりとげられないのか? 私なりにやり遂げられない原因を考えました。 毎日の水やりが面倒くなってしまう 植物の絵を描くのがストレス 途中で飽きてしまう これらは、私自身の問題に繋がります。 “毎日コツコツ” “決まった

                                  ラズパイとTypetalkで今年の夏こそ植物の観察日記をやりとげる | 株式会社ヌーラボ(Nulab inc.)
                                • 【2020年版】NVIDIA Jetson Nano、Jetson Xavier NXの便利スクリプト (Jetsonの面倒な初期設定やミドルウェアのインストールを bashスクリプトの実行だけで簡単にできます)

                                  ・2020/06/27 【2020年】Jetson Xavier NX 開発者キットが安かったので衝動買いした件、標準販売価格5万円が4万4千円! 【ザビエル元年】Jetson Xavier NX 開発者キットを最安値で購入で、しかも国内在庫で注文から翌日で到着、ザビエル開封レビュー ・2019/03/20 NVIDIA Jetson Nano 開発者キットを買ってみた。メモリ容量 4GB LPDDR4 RAM Jetson Nanoで TensorFlow PyTorch Caffe/Caffe2 Keras MXNet等を GPUパワーで超高速で動かす! ● Jetson Nano、Jetson Xavier NXの便利スクリプト 対応環境 Jetson Nano Jetson Xavier NX 2021/02 JetPack 4.5.1 PR Production Release

                                  • Raspberry Pi 4 に OpenCV を楽に入れる - Qiita

                                    参考 概要 OpenCVが依存してるライブラリだけapt-getで入れちゃえば、ラズパイ用にビルドされたバイナリをpipでインストールするだけで済むよ。(自分でビルドする必要がないよ) ただ、ラズパイ4用に最適化されてるかに関してはぶっちゃけわからないです...。 依存関係を入れる # ビルドツール関係(もしかしたらいらないかも) sudo apt-get install build-essential cmake pkg-config # 画像関係 sudo apt-get install libjpeg-dev libtiff5-dev libjasper-dev libpng-dev # 動画関係 sudo apt-get install libavcodec-dev libavformat-dev libswscale-dev libv4l-dev sudo apt-get ins

                                      Raspberry Pi 4 に OpenCV を楽に入れる - Qiita
                                    • OpenCVをつかった特徴点マッチングについて少しだけ掘り下げる - Qiita

                                      特徴点マッチングて? こんなやつ。 400x400px の画像と、それを 200x200px にリサイズし回転させたものを特徴点を検出しマッチングさせています。 コード 上の画像を出力しているコードです。 これだけ。 import cv2 from IPython.display import Image from IPython.display import display # 画像読み込み img1 = cv2.imread('/path/to/dir/megane400x400.png') img2 = cv2.imread('/path/to/dir/megane200x200_rotate.png') # 特徴点検出 akaze = cv2.AKAZE_create() kp1, des1 = akaze.detectAndCompute(img1, None) kp2, des

                                        OpenCVをつかった特徴点マッチングについて少しだけ掘り下げる - Qiita
                                      • AWS LambdaでPython外部ライブラリのLayerを作る前に - Qiita

                                        結論 先人によって既に作られてないか、いったん確認してみましょう。 keithrozario/Klayers 使い方 なぜかAWS公式でLayerが提供されていないライブラリ、pandasを例として使います。 (Numpy + Scipyがあるなら、pandasもあってくれていい気がしています) 0. 前準備 AWS Lambdaにアクセスして、[関数の作成]を押し、適当な名前の関数を作ります。 「ランタイム」はPython3.8を選びます。「アクセス権限」はノータッチでOKです。 1. pandasをインポートし、テストを作成 import pandasを追加し、[保存]を押します。 [テスト]を押し、「イベント名」に適当な名前を入れます。 下のJSONは特にいじらなくてOKです。 この時点でもう一度[テスト]を押すと失敗します。pandasが無いよと言われています。 それはそうという感

                                          AWS LambdaでPython外部ライブラリのLayerを作る前に - Qiita
                                        • OpenCVのカスケード分類器を自作して画像認識 | パソコン工房 NEXMAG

                                          Raspberry Piのような超小型のコンピューターを使って特定の条件に一致する画像を抽出しようとする場合に、特定の条件をプログラムが判別できるようにまとめたものを「カスケード分類器」といいます。 今回はこのOpenCVのカスケード分類器を自分で作成し、任意の条件に合う画像を抽出するまでの流れをご紹介します。 カスケード分類器とは 画像認識ライブラリーであるOpenCVに含まれる物体検出機能を使用すると、画像の中に含まれる特定の物体を検出することが可能になります。 物体検出を行うためには検出したい物体がどんな特徴を持っているのか、該当する物体を含む画像と含まない画像(=学習用画像)を用意し、検出したい物体の特徴を抽出します。この特徴を「特徴量」と呼びますが、学習用画像すべての「特徴量」をまとめたデータのことを「カスケード分類器」と呼びます。 OpenCVには最初からカスケード分類器が用意

                                            OpenCVのカスケード分類器を自作して画像認識 | パソコン工房 NEXMAG
                                          • (最終回)Python + OpenCVで遊んでみる(OCR編)

                                            目次 はじめにOCRとは使用するライブラリ Tesseract,PyOCRを用いたOCR おわりに はじめに 前回までは顔検出や物体検出を静止画や動画で行ってみました。 最終回となる今回は画像ではなく文字を検出・認識するOCRを行ってみたいと思います。 これで画像認識、文字認識と機械学習等の結果でよく利用されるアウトプットを行ってみることができます。 OCRとは OCRとは、 Optical Character Recognition (またはReader)の略で光学文字認識のことを言います。 具体的には画像中の文字を検出し、文字データに変換する技術です。 OCRを利用することで、入力業務や文書管理といった業務を効率よく行えたりします。 当ブログでも別テーマにてOCRを扱った記事を掲載していますので、下記のリンクをクリックしてみてください。

                                              (最終回)Python + OpenCVで遊んでみる(OCR編)
                                            • 【Python】画像のノイズを減らして二値化し、輪郭を抽出する - LabCode

                                              画像解析には色々ありますが、その中の一つに「輪郭を抽出する」があります。輪郭を抽出することで、画像に存在する物体を検出することが出来ます。輪郭の抽出は、PythonのライブラリであるOpenCVを使うことで輪郭を抽出することが簡単に出来ます。今回はPythonで画像に存在する物質の輪郭を抽出する実装方法を紹介します。 前回、【Python】画像を平均化しノイズを除去してから二値化するで画像の平均化をしてノイズを減らし、二値化する方法について解説しました。今回は画像の平均化と二値化の処理を行ってから、輪郭抽出に入っていきます。 *本記事は、前回の記事を読んでないという方でも理解できるように書かれています。

                                              • 初めての画像処理〜OpenCVって何ができるの?〜 | フューチャー技術ブログ

                                                はじめにこの記事は春の入門ブログ連載20236日目です。 新卒未経験でIT業界に飛び込んではや一年。だんだんと普段使うJavaに関しては余裕が出てきたところで他の言語にも手を出そうと思い、以前から気になっていた画像処理にチャレンジしました。 普段はコーディングしてもテストがうまくいく or いかないのどちらかでしか成果物を見ることができなかったので、視覚的に動いてる!を感じてみたく、新宿の紀伊國屋で分かりやすそうな書籍を買い、いろいろ試したので同じように画像処理にちょっと興味があるような人に読んでいてもらたらうれしいです。(入門編ということでセットアップなどに具体的に触れるよりも、いじっていみた面白さを伝える方に寄せています) 参考書籍:実践 OpenCV 4 for Python 画像映像情報処理と機械学習 実際にPythonで画像処理を体験した感想「めっちゃ簡単なのにめっちゃ楽しいじゃ

                                                  初めての画像処理〜OpenCVって何ができるの?〜 | フューチャー技術ブログ
                                                • Jetson nano セットアップとUSBカメラを使った画像認識 (YOLO) の動作 - Takahiro Suzuki

                                                  Jetson nano セットアップとUSBカメラを使った画像認識 (YOLO) の動作 Jetson nanoはNVIDIAのGPUが載った、Raspberry Piサイズのボードです。 簡単な設定でUbuntuとNVIDIA Driver, CUDAが整った環境が揃えられるので、CPUでは重すぎて動かないディープラーニングなどを個人で少し試すのによいデバイスかと思います。 試しにUSBカメラを繋いでYoloを動かしました。 使用したハードウェア Jetson Nano Developer Kit 128 GB Micro SD カード 電源アダプタ 5V/4A USBカメラ USB WiFiモジュール ジャンパーピン J48にジャンパーピンを接続するとDCジャック電源供給に切り替わります。デフォルトのUSB電源供給だと処理負荷が増えた際に安定動作しません。 初期セットアップ Wifiで

                                                  • PythonのOpenCVで顔認識 - Qiita

                                                    Help us understand the problem. What is going on with this article?

                                                      PythonのOpenCVで顔認識 - Qiita
                                                    • Makuake|初心者もプロも楽しめる!自作できるロボット犬『Mini Pupperミニぷぱ』|Makuake(マクアケ)

                                                      あの四足歩行ロボットが、ミニサイズになってやってくる! 誰もが自作ロボットを楽しく作れる時代へ!届いた日から遊べる【組立完成版】もご用意 中・上級者向けロボティックス×プログラミング仕様も満載! あの四足歩行ロボットが、ミニサイズになってやってくる!初心者もプロフェッショナルも、夢中になれるロボット犬「Mini Pupper(愛称「ミニぷぱ」)」がついに登場です! 想像力と創造力が無限に刺激される、組立前の【DIY版】。まるで3Dパズルや、懐かしのミニ四駆を組み立てる気分! 全く知識のない初心者でも安心!溶接不要・必要な道具は全て同梱。さらに日本語マニュアルと丁寧なレクチャー動画付きで、じっくりたっぷり、愛情と時間を掛けた世界に一つ、あなただけのミニぷぱが誕生します。 ※製作目安:初心者なら約2〜3日、上級者なら約2〜3時間です。 ゼロからロボットを創り上げる達成感&充実感、無我夢中にさせ

                                                        Makuake|初心者もプロも楽しめる!自作できるロボット犬『Mini Pupperミニぷぱ』|Makuake(マクアケ)
                                                      • 【C++】学習済みPyTorchモデルのC++(TotchScript)移管 - Qiita

                                                        TotchScriptとは TorchScriptは、Pythonコードからモデルを段階的に移行するためのツールを提供し、スタンドアロンの C++ プログラムなど、Python から独立して実行できる TorchScript プログラムへ置き換えることができる。つまり、使い慣れたPythonツールを使用して PyTorch でモデルを作成し、推論用にC++へエクスポートすることができ、高速化が図れる。 単純モデルのエクスポート Pytorchで学習したモデルを元に、torch.jit.trace関数を用いてTorchScriptプログラムへ変換する。 ※ ジャストインタイム(JIT)コンパイラー・・・実行時にコードをコンパイルするコンパイラの一種で、実行時に必要な部分のコードを即座にコンパイルして実行する。プラットフォーム(Windows、macOS、LinuxなどのOSやハードウェア)に

                                                          【C++】学習済みPyTorchモデルのC++(TotchScript)移管 - Qiita
                                                        • AWS IoT 再入門ブログリレー Amazon Kinesis Video Streams編 | DevelopersIO

                                                          1 はじめに CX事業本部平内(SIN)です。 本企画は、弊社チームIoTメンバーが初心に返ってIoTサービスについて学びなおし、解説してみようというものです。 本エントリーでは、AWSへ動画をライブで簡単かつ安全にストリーミングできる「Amazon Kinesis Video Streams(以下、Kinesis Video Streams)」について紹介します。 Kinesis Video Streamsの主要な機能は、以下のとおりです。 数百万ものデバイスからのストリーミングデータを取り込むために必要な、すべてのインフラストラクチャ扱うマネージドサービス ストリーム内の動画データの耐久性に優れた保存、暗号化、インデックス作成 APIを介したデータへのアクセスが可能 ライブやオンデマンド視聴用の動画再生が可能 コンピュータビジョンと動画分析を活用するアプリケーションを迅速に構築可能 ビ

                                                            AWS IoT 再入門ブログリレー Amazon Kinesis Video Streams編 | DevelopersIO
                                                          • Python, OpenCVで動画を読み込み(ファイル・カメラ映像) | note.nkmk.me

                                                            PythonのOpenCVで動画ファイルやカメラ(内蔵カメラ・USBカメラ・Webカメラ)の映像を読み込んで処理するにはVideoCaptureクラスを使う。後述のように、ビルド時にVideo I/Oが有効化されていないと動画の処理はできないので注意。 OpenCV: cv::VideoCapture Class Reference ここでは以下の内容について説明する。 Video I/Oが有効化されている必要あり 動画の読み込み: VideoCapture() 動画ファイルの読み込み カメラ映像の読み込み 動画を閉じる 動画のプロパティ(サイズやFPS、フレーム数など)の取得・設定 プロパティの取得: get() プロパティの設定: set() フレームの画像をNumPy配列ndarrayで取得 動画ファイルの場合 カメラ映像の場合 動画の再生(表示) 動画ファイルを無限ループで表示 カ

                                                              Python, OpenCVで動画を読み込み(ファイル・カメラ映像) | note.nkmk.me
                                                            • OpenCV が Objective-C / Swift で使えるようになります & 使ってみた - Qiita

                                                              2020年6月13日:一部加筆・修正しました。 2020年4月27日、OpenCV にこんな PR が現れました。 Objc binding by komakai · Pull Request #17165 · opencv/opencv これまで、OpenCV には Java のラッパーが含まれていたため、Android で簡単に OpenCV を利用することができましたが、iOS、macOS では Objective-C、Swift で使うために自分で C++ を呼び出すためのラッパーを書く必要がありました。そこで、@komakai さんによって提案されたのがこの PR でした。 そして今日 2020年6月9日、その PR が無事に master ブランチへマージされ、自分で Objective-C++ を書くことなく、Objective-C、Swift で使うことができるようになりま

                                                                OpenCV が Objective-C / Swift で使えるようになります & 使ってみた - Qiita
                                                              • Kindle for PCのスクショを撮る - Qiita

                                                                新しいバージョンがあります Kindle for PCを画像にしたい Kindle for PCのUIは正直クソなので、画像にして保存したいです。 幸いなことにスクリーンショットは撮れるので、Pythonを使えば楽に画像に出来るでしょう。 と、言うわけでweb検索した その結果、pyautoguiを使って連続してスクショを撮っているPythonスクリプトがありました。でも、正直あまり気に入らなかったのです。 と、言うのも、実行したら5秒以内にKindle for PCを表に持ってきて、フルスクリーンにして、で、5秒ごとにページを進めてスクショを撮って保存する。と言うものでした。 しかも切り取る座標は自分で入力しなければいけませんでした。 もっと楽に、高速化出来るはず Windows限定になってしまいますが、ウィンドウ一覧から特定のウィンドウをアクティブにするのは出来るはずです、もちろん、フ

                                                                  Kindle for PCのスクショを撮る - Qiita
                                                                • Python, OpenCVでカメラのリアルタイム動画から静止画を保存 | note.nkmk.me

                                                                  Python, OpenCVでカメラ(内蔵カメラ・USBカメラ・Webカメラ)でリアルタイムに取得した映像から静止画を切り出して画像ファイルとして保存する(キャプチャする)方法について説明する。 ここでは以下のサンプルコードを示す。 キーボードを押下したタイミングで保存 定期的に自動保存 カメラの映像ではなく動画ファイルから静止画を切り出して保存する方法については以下の記事を参照。 関連記事: Python, OpenCVで動画ファイルからフレームを切り出して保存 OpenCVにおける動画の読み込みや基本的な扱いについて以下の記事を参照。 関連記事: Python, OpenCVで動画を読み込み(ファイル・カメラ映像) キーボードを押下したタイミングで保存 カメラからの映像をリアルタイムで表示し、キーボードを押下したタイミングのフレームを静止画の画像ファイルとして切り出して保存するサンプル

                                                                    Python, OpenCVでカメラのリアルタイム動画から静止画を保存 | note.nkmk.me
                                                                  • Pythonおよび機械学習勉強用のRaspberryPiの構築 (RaspberryPi4 & Buster版 (RaspberryPi3も可)) - Qiita

                                                                    Pythonおよび機械学習勉強用のRaspberryPiの構築 (RaspberryPi4 & Buster版 (RaspberryPi3も可))PythonTensorFlowJupyterLabEdgeTPURaspberryPi4 【内容】 2020/02/19 一部内容を見直し、Raspberry Pi 3 model Bでも動作確認しました。 Node-REDの環境構築を追加しました。 ついにRaspberry Pi 4 model Bが日本で発売を開始しました。 早速使って見るべく、以前投稿した【Pythonおよび機械学習勉強用のRaspberryPiの構築】をラズパイ4版に書き直してみました。 ハードウェア以外にもRaspbianのバージョンを最新(Buster 20200213)にしてあります。 また、Raspberry Pi 3 model Bでも同じ手順で環境構築できる

                                                                      Pythonおよび機械学習勉強用のRaspberryPiの構築 (RaspberryPi4 & Buster版 (RaspberryPi3も可)) - Qiita
                                                                    • Pythonで画像のエッジ検出と直線検出をする - Qiita

                                                                      1.概要 みんな大好き大乱闘スマッシュブラザーズ(以下スマブラ)!! 私事ながら,スマブラ配信をしています.チャンネル登録お願いします! スマブラ×機械学習でなんかできないかなー,と思っていたところこんな記事を発見しました. 画像認識でスマブラの戦績を自動で作成するツールを作ろう 最終的に何を作るかは置いといて,面白そうだしとりあえずやってみよう! 前回,Pythonで指定した範囲のスクリーンショットを撮ることができました. 今回の目標は,前回撮った画像からエッジ検出と直線検出をすることです. こんな画像から, エッジを検出して, 画像内の直線を検出したい! 2.本編 今回はこんな流れで進めていきます. 2-1.画像をグレースケールに変換 前回撮ったスクリーンショットをグレースケールに変換します. 画像の1ピクセルに含まれる情報は,RGBなら256×3,グレースケールなら256×1になりま

                                                                        Pythonで画像のエッジ検出と直線検出をする - Qiita
                                                                      • Python + OpenCVで画像処理をマスター!使用法・実用例を解説|DS Media by Tech Teacher

                                                                        という疑問を抱えている方も多いのではないでしょうか そこで本記事では、PythonでOpenCVの「基礎知識やインストール方法」から「基本操作」、さらに「OpenCVの活用事例」を紹介します。 OpenCVの入門内容をまとめた記事となっているので、ぜひ最後までご覧ください。

                                                                          Python + OpenCVで画像処理をマスター!使用法・実用例を解説|DS Media by Tech Teacher
                                                                        • OpenCV.jsとWebカメラ画像表示 - Qiita

                                                                          OpenCV.jsでのWebカメラの取り扱いはOpenCVのサイトにも記載されているが、メモとしてこちらにも記載。OpenCV.jsの場合はWebカメラを直接扱ってくれるわけではなく、自分でgetUserMediaを扱う必要がある。 getUserMediaを使ったWebカメラ画像の表示については、GoogleのサイトWeb Fundamentalsがわかりやすい。 カメラのアクセスにはlocalhostもしくは、https接続が必要となる。 2021/09/10: iOS対応のためにはvideoタグに playsinline muted が必要だったため追記。 サンプルコード1(単純にWebカメラ画像を表示) GoogleのサイトWeb Fundamentalsのコードそのまま。 <video id="player" controls playsinline muted autoplay

                                                                            OpenCV.jsとWebカメラ画像表示 - Qiita
                                                                          • wslのDockerでGUI操作 - Qiita

                                                                            導入 (🦕は私です) 🦕「DockerでGUI操作してぇなぁ」 🦕「WSLの機能、WSLg ってのがあるんか。じゃあできそうやな。」 ということで、記事にしました。 恐らく、OpenCV や PyAutoGUI 更には VLC や GIMP が実行できます。 →2023年2月24日: これについて こちら に追記しました 最後に解説もつけてます。 ほぼ初心者Dockerでしたので、色々時間かかりました。 是非読んで、私を報ってあげてください。 また、一応GitHubに公開しました。 GitHubでは compose を使わない方法も紹介しています。(2023年2月25日追記) repositoryはこちら 環境 Windows11 WSL2 wsl --version の実行結果のうち一部

                                                                              wslのDockerでGUI操作 - Qiita
                                                                            • 【Python】OpenPoseを使ってみた - Qiita

                                                                              はじめに 本記事は、私が経験した画像系のハッカソンで行なった時にOpenposeを使うって議論になりながら使わなかったので、勉強したくなって勉強しました。 また今まで記事を投稿したOpenCVを用いてネコ検出器を作るで顔認識を行い、YOLOv3を使ってみたで全身認証やラベリングを勉強しました。今回は骨格検知を勉強したので記録として残そうと思います。ぜひ上記であげた記事もよければご覧になってください!(20201221-5) 参考にした記事はこちらです。【TensorFlow版】MacBookで行うOpenPose (osx Mojave対応) Openposeとは OpenPoseは人物の骨格などを、モーションキャプチャなしで簡単に表示できるツールです。 macbookユーザは内蔵カメラがあるので、リアルタイム動画描写もできます。今回は画像に骨格検知を行なってみることを試してみようと思いま

                                                                                【Python】OpenPoseを使ってみた - Qiita
                                                                              • DeepstreamでストリームAI処理する方法について

                                                                                2020年1月7日に行われた第4回 Jetsonユーザー会 「Jetson Nano超入門」著者パネルディスカッション+LT大会に登壇させていただきました。 関係者のみなさま、ご参加いただいたみなさま、ありがとうございました。 で、資料をSlideShareにアップしたのですが、基本的には口頭で説明するためのベースとしての資料として作ったものですので、ブログ記事として解説をアップすることにしました。 まず、なんでDeepStreamを紹介しようと思ったかと言いますと、以下3つの理由からです。 何か話してよと言われたのが12月半ばで1か月未満でできることを考えた ちなみに、依頼が来てから慌ててJetson nanoを買いました。 DeepStreamに関して、NVIDIAさんのプレゼンでしか見たことないよという声があった 「Jetson Nano超入門」にはさらっと紹介程度にしか触れられてい

                                                                                  DeepstreamでストリームAI処理する方法について
                                                                                • Jetson NanoでYOLOv4を動かしてみました

                                                                                  Raspberry PiカメラモジュールV2を接続 画像ファイルや動画ファイルでオブジェクト検出を行うことも可能ですが。 映像のオブジェクト検出をリアルタイムで行えるようにカメラを接続しました。 JETSON NANO開発者キットにRaspberry Piカメラモジュール V2を接続 ちなみに、最近発売されたHQカメラも試してみたのですが、残念ながら接続できませんでした。 Jetson NanoでRaspberry Pi HQカメラは使用できるのか試してみました この記事はRaspberry PiカメラモジュールV2で撮影した画像が掲載されています。 darknetのビルド YOLOv4はこちらのページを参考にさせて頂きました。 GitHub – AlexeyAB-darknet- YOLOv4 – Neural Networks for Object Detection (Windows

                                                                                    Jetson NanoでYOLOv4を動かしてみました