並び順

ブックマーク数

期間指定

  • から
  • まで

321 - 360 件 / 809件

新着順 人気順

opencvの検索結果321 - 360 件 / 809件

  • Darknet YOLOv3 on Jetson Nano – AI4SIG

    Jetson NanoにニューラルネットワークのフレームワークであるDarknetをインストールして、物体検出モデルのYOLOv3が動作する環境を構築しました。 YOLOv3とTiny YOLOv3による物体検出結果 下の画像は、構築した環境のYOLOv3とTiny YOLOv3を用いて、GitHub – udacity/CarND-Vehicle-Detection: Vehicle Detection Projectのテスト画像を物体検出した結果です。 環境構築 Darknet Darknetは、ニューラルネットワークのフレームワークです。詳細は、Darknet: Open Source Neural Networks in Cをご覧ください。ソースが、GitHub – pjreddie/darknet: Convolutional Neural Networksで公開されています。

      Darknet YOLOv3 on Jetson Nano – AI4SIG
    • pythonとOpenCVで歪み補正 - haitenaipants’s blog

      書類をスキャンしたときは、画像が傾いているのみならず、歪んでいる場合がある。 この歪みをpythonで直すためのプログラム。ただし、大きな枠があり、歪みが小さい場合に限る。 大まかな流れ : イ)四角い枠の角の座標を取得する。(一番外側の線は紙そのものの輪郭) ロ)台形補正で歪みを直す。 以下のサイトを参考にした。(と言うかほとんどそのままです。本当ごめんなさい。) opencv で マーカー付き用紙の向きを直してみる - 機械学習備忘録 opencv で カードの向きを直してみる - 機械学習備忘録 1)角の座標の取得 (1−1)輪郭検出 適当な画像を用意し(ここでは、test.png)、以下のコードを実行する。 import cv2 import numpy as np img = cv2.imread("test.png") gray = cv2.cvtColor(img, cv2.

        pythonとOpenCVで歪み補正 - haitenaipants’s blog
      • https://www.web-development-kb-ja.site/ja/python/opencv%E3%82%92%E4%BD%BF%E7%94%A8%E3%81%97%E3%81%9F%E7%94%A8%E7%B4%99%E3%81%AE%E3%82%AB%E3%83%A9%E3%83%BC%E5%86%99%E7%9C%9F%E3%81%AE%E3%82%B3%E3%83%B3%E3%83%88%E3%83%A9%E3%82%B9%E3%83%88%E3%81%A8%E6%98%8E%E3%82%8B%E3%81%95%E3%81%AE%E8%87%AA%E5%8B%95%E8%AA%BF%E6%95%B4/811144052/

        • Stable Diffusionでフォント画像を生成してみる

          前置き 最近ブームですよね、Stable Diffusion……というか、画像生成AI全般というべきでしょうか。見たところではイラストを生成するみたいな使い方が多く行われているように感じられます。実際、イラストを生成するのは良いです。楽しいし、素材にもなりますしね。 しかし……それはそれとして、ですよ。 私は今回、イラスト生成とはまた別のベクトルで役立つ手法があってもいいのではないか、と考えました。では……それは具体的に何か。『生成』 されるような 『画像』 で、単純な 『素材』 と言うわけでもない存在……回答例は色々あるでしょうが、私の場合はこう考えました。フォントです。 そういうわけで、この記事では……Stable Diffusionに、数字およびアルファベットをサポートするフォント画像を生成させていこうと思います。 環境 スペック OS:Windows10 Home メモリ:16GB

            Stable Diffusionでフォント画像を生成してみる
          • フィックスターズ、独自開発した画像情報ソフトウェアがOpenCVに正式実装

            マルチコアCPU/GPU/FPGAを用いた高速化技術のグローバルリーダーである株式会社フィックスターズ(東証1部: 3687、代表取締役社長 CEO: 三木 聡)は、同社が開発した視差計算のオープンソースソフトウェア(OSS)「libSGM」が、コンピュータビジョン向けOSSライブラリ「OpenCV」に正式実装されたことをお知らせします。ステレオカメラの画像から視差計算をするlibSGMは、複雑化・高度化する自動運転システムの前方注視能力の向上など様々な用途に活用が期待されています。推定1800万ダウンロードを超えるOpenCVに採用されたことで、コミュニティを通じて世界中のデベロッパーにlibSGMを活用いただきやすくなりました。 OpenCV(https://opencv.org/)にフィックスターズのlibSGMが実装された libSGMとOpenCV libSGMは、Semi-Gl

              フィックスターズ、独自開発した画像情報ソフトウェアがOpenCVに正式実装
            • PyTorchの周辺ライブラリ - HELLO CYBERNETICS

              PyTorch 確率的プログラミング GPyTorch Pyro BoTorch Ax Training Wrapper pytorch lightning ignite Catalyst skorch Computer Vision kaolin pytorch3d kornia PyTorch pytorch.org いわずとしれたディープラーニングフレームワークです。最近、国産のフレームワークであるChainerの開発元であるPFNが、PyTorchへの移行を示したこともあり、一層認知度が高まったように思います。すでに研究分野ではTensorFlowよりも高いシェアを誇っている状態であり、今後、プロダクション方向にも整備が行くようで更に注目しておくべきでしょう。 ディープラーニングフレームワークと言いつつ、多次元配列の計算を自在に行うことが可能な自動微分ライブラリとして活用することも

                PyTorchの周辺ライブラリ - HELLO CYBERNETICS
              • 「Jetson Nano 超入門」を読んでSLAMやってみた - Qiita

                はじめに いつもJotson関連の情報でお世話になっているからあげさんがJetsonNanoの本を書いたので、いつものように真似してみるよ。 (注意!JetPackは4.2.2を使ってね) Jetson Nano本のサポートページ 教材のレベルも高い MIDIや3Dカメラをつかうページでは、D435やポケミクが必要だったりで、さすが超入門。 どこのご家庭にも必ずあるJetsonNanoと違って、デバイス側の在庫がある人は少ないはず・・・だけど、Twitter見てるとみんな持っているから不思議。 ちなみに私のはD435じゃなくてD435iだからセーフ(謎) JetPack 4.3 本が届く前にJetPack4.3がリリースされて、OpenCV4.1がプリインストールされた。 これで長々とビルドする必要がなくなった! (注意!JetPack4.3だとSLAMが動かせなかったので、現状ではJet

                  「Jetson Nano 超入門」を読んでSLAMやってみた - Qiita
                • [訓練・データ不要]ディープラーニングフレームワークを使ったアニメの線画の自動生成 - Qiita

                  ディープラーニングのフレームワークを使って、アニメ本編から線画を生成します。ただし、一切訓練や訓練データを与えていません。アニメ1話分全4.3万フレームの線画化を1時間程度で終わらせることができました。 あらまし このようにアニメ本編から自動的に線画が生成できます。ディープラーニングのフレームワークを使うとできます。ただし、一切訓練をしていません。 OP https://t.co/52t0dFZNZL pic.twitter.com/7aCEJ9SkTc — しこあん@『モザイク除去本』(技術書典6)好評通販中 (@koshian2) 2019年7月1日 本編1 https://t.co/52t0dFZNZL pic.twitter.com/oicU8UPopS — しこあん@『モザイク除去本』(技術書典6)好評通販中 (@koshian2) 2019年7月1日 本編2 https://t

                    [訓練・データ不要]ディープラーニングフレームワークを使ったアニメの線画の自動生成 - Qiita
                  • K-Meansクラスタリングによる画像の減色 - Pythonでいろいろやってみる

                    K-Meansクラスタリングは、与えられたデータを自動的に分類するアルゴリズムであるクラスタリングの一種で、クラスタの平均を用い、与えられたクラスタ数k個に分類する手法です。(Wikipedia >> k平均法) cv2.kmeans()を用いるとK-Meansクラスタリングが簡単に実装できます。これを画像データに用いてBGRのチャンネルについてクラスタリングし、各クラスタに含まれる画素を、各クラスタの中心値に変換することで減色できます。 OpenCV >> K-Means Clustering in OpenCV 記載のコードをほぼそのまま使用しています。 関連記事 ルックアップテーブルによる画像の減色 環境 windows10 home Anaconda 3/ jupyter notebook 5.6.0 Python 3.7.0 OpenCV 4.0.0 準備 画像ファイルはフリー写

                      K-Meansクラスタリングによる画像の減色 - Pythonでいろいろやってみる
                    • 「Jetson Nano」のCUDAコアで“Hello AI World”を動作させてみる

                      「Jetson Nano」のCUDAコアで“Hello AI World”を動作させてみる:Jetson Nanoで組み込みAIを試す(3)(1/2 ページ) NVIDIAが価格99ドルをうたって発表した組み込みAIボード「Jetson Nano」。本連載では、技術ライターの大原雄介氏が、Jetson Nanoの立ち上げから、一般的な組み込みAIとしての活用までを含めていろいろと試していく。第3回は、Jetson NanoのCUDAコアを使って推論のサンプル“Hello AI World”を動作させてみる。 ⇒連載「Jetson Nanoで組み込みAIを試す」バックナンバー Ubuntuはちゃんと動き、Unixbenchもきちんと動作したので、いよいよCUDAコアを利用してのInference(推論)の動作である。まずはそもそもちゃんと動作する事を検証したいと思う。 NVIDIAは“Hel

                        「Jetson Nano」のCUDAコアで“Hello AI World”を動作させてみる
                      • Pythonを使ったずれ補正

                        今回は,a.png を基準とした際,b.png および c.png のズレを求め,補正するという操作を行います.処理の内容を説明すると, ①OpenCVで画像をグレースケールにて取得, ②cv2.phaseCorrelate を用いて,位相限定相関を計算し,ズレを計算する, ③cv2.warpAffine を用いて,ズレの分だけ画像を移動する, となります.実装は以下に記載しています. import numpy as np import matplotlib.pyplot as plt %matplotlib inline import cv2 filename_li = ["a.png", "b.png", "c.png"] img_li = [] for i in filename_li: img = cv2.imread(i, 0) # 第二引数を 0 にすることでグレースケールで読

                          Pythonを使ったずれ補正
                        • C/C++プロジェクトをCMakeでビルドする - Qiita

                          CMakeは、C/C++プロジェクト向け、マルチプラットフォームのビルドツールです。 僕が初めてプログラミングに触りC/C++を勉強していた当時、難しそうという雰囲気から避けてしまっていたツールでもありました。しかし、現在はPythonライブラリ開発で高速化のためにpybindを用いて処理をC++化したり、大学でのロボコンではOpenCV、ROSなどを用いた大きめのプロジェクト開発をしたりするため、CMakeをガッツリ利用しています。 CMakeは10年以上前から開発されているツールですが、現在も、これから先も使い続けられるツールだと思います。今回はQiitaの「Qiita 10周年記念イベント - 10年後のために今勉強しておきたい技術」というテーマで、難しそうと思っていた過去の自分にも分かるように、そして今からCMakeを勉強しようと思っている人の資料となるように、という思いを込めて投

                            C/C++プロジェクトをCMakeでビルドする - Qiita
                          • Jetson NanoでGPUとOpenCVが有効なYOLOをビルドするには

                            このような感じで、Jetson NanoにRaspberry PiカメラモジュールV2やUSBカメラを接続して、YOLOでオブジェクト認識を行えるようです。 手順を記録しておこうと思います。 ※20.6.29追記: YOLOv4に対応する新しい記事を作成しました。 Jetson NanoでYOLOv4を動かしてみました 以下はYOLOv3の記事になります。 リアルタイムオブジェクト検出、YOLOはこちらのサイトになります。 YOLO- Real-Time Object Detection こちらのページに記載された手順でdarknetをビルドしますが。 Jetson NanoでGPU、OpenCVを使用するために、次の設定を行いました。 YOLOビルドオプション変更 GPU有効化 Makefileを書き換えて、GPUを有効にしますが。 vi Makefile GPU=1に変更する他に、NV

                            • 達人出版会

                              探検! Python Flask Robert Picard, 濱野 司(訳) BareMetalで遊ぶ Raspberry Pi 西永俊文 なるほどUnixプロセス ― Rubyで学ぶUnixの基礎 Jesse Storimer, 島田浩二(翻訳), 角谷信太郎(翻訳) 知る、読む、使う! オープンソースライセンス 可知豊 きつねさんでもわかるLLVM 柏木餅子, 風薬 実践力をアップする Pythonによるアルゴリズムの教科書 クジラ飛行机 スッキリわかるサーブレット&JSP入門 第4版 国本 大悟(著), 株式会社フレアリンク(監修) 徹底攻略 基本情報技術者教科書 令和6年度 株式会社わくわくスタディワールド 瀬戸美月 徹底攻略 情報セキュリティマネジメント予想問題集 令和6年度 五十嵐 聡 詳説 ユーザビリティのための産業共通様式 福住 伸一, 平沢 尚毅 DX時代の観光と社会

                                達人出版会
                              • 毎週アプリをリリースして3ヶ月経ったので振り返る - Qiita

                                こんにちは、Yuiです。 実は5月後半から週イチ発信と称して、週一でアプリをリリースして日本語と英語両方で記事を書くという挑戦をしておりました。 まだもう少し続ける予定ですが、一旦は3ヶ月完走したということでこのチャレンジ期間中に開発したアプリやできるようになったことを紹介していこうと思います。 参考になったと思えばLGTM してもらえれば大変励みになります。 1週目: TensorFlowを使って画像にマスクをかけるアプリを作った TensorFlow.jsを使った初めての開発でした。 最初face-api.jsで動かそうとしてたんですが、なんでかモデルの読み込みができなくて(最終的にはできるようになった)TensorFlow.jsでやりました。 ただ、TensorFlow.jsを使うことにしたのは良いものの、React+TypeScriptで動かしてる例があまりなくて、最初はまあまあハ

                                  毎週アプリをリリースして3ヶ月経ったので振り返る - Qiita
                                • Python 輪郭の検出とその座標の抽出「OpenCV」 - PythonとVBAで世の中を便利にする

                                  本記事では、画像ファイルの物体の輪郭を抽出する雛形コードを載せました。検出手法を関数として4つ載せました。いずれも処理の大まかな流れは、2値化してしきい値で判別します。その2値化が画像に依っては難しいのです。 そのため、毛色の異なる次の2つのリンク先の画像とコードを参考にさせて頂きました。更に、自前で準備した画像2つを合わせた計4つに対して、処理の過程と共に結果例を順番に載せます。 ▼チューリップの花の輪郭を検出する (参考リンク)オブジェクト輪郭検出 | OpenCV / findContours を使用して画像中のオブジェクトの輪郭を検出する方法 画像の特徴1:花が沢山あって、それぞれの形状が複雑 画像の特徴2:花とそれ以外の葉っぱなどの背景との色度が明確にわかれている 処理1. 色調RGBをHSVへ変更 →茎と土の輪郭をぼかす 処理2. ガウシアンによるスムージング処理 →更に、茎や

                                    Python 輪郭の検出とその座標の抽出「OpenCV」 - PythonとVBAで世の中を便利にする
                                  • [Azure Machine Learning] Microsoft Build 2020で印象的だったResponsible MLを少しまとめてコードも動かしてみた | DevelopersIO

                                    こんにちは、Mr.Moです。 Microsoft Build 2020では様々な発表がありましたが個人的に一番印象に残っているのが「Responsible ML」です。少しまとめながらコードも動かしてみたいと思います。 Responsible MLとは 現在多くの人が機械学習に触れるようになってきていて「Responsible AI(責任あるAI)」についての重要性もますます高まってきていると思われます。そんな中MicrosoftではAzure Machine Learningのサービスを介して責任ある機械学習プロジェクトを遂行できるようにと提供開始しているのがMicrosoft Build 2020でも話題になっていたResponsible MLですね。Responsible MLではデータサイエンティストおよび開発者が機械学習モデルに対する理解、学習データにおけるプライバシー保護、およ

                                      [Azure Machine Learning] Microsoft Build 2020で印象的だったResponsible MLを少しまとめてコードも動かしてみた | DevelopersIO
                                    • 字を綺麗に書きたいPdMがiOSの書道アプリを作った話 - ABEJA Tech Blog

                                      概要 ABEJAアドベントカレンダー2023の7日目の記事です。これは普段の仕事でプロダクト開発を行っている私が、自分自身の悩みを解決するためにiPadOS向けの書道アプリを開発し実際に使ってみる話である。 ZenPen Tetsu Kuribayashii グラフィック/デザイン 無料 apps.apple.comiOS向けには配信していません 背景 私は字が上手くない。 社会人になってから約2年。学生の頃より紙とペンを使う機会は減り、もっぱらキーボードを叩く毎日である。それでも時々、書類や封筒に字を書く機会がある。なるべく丁寧に書くことを心がけているものの字の形や全体のバランスが綺麗に決まらず、書き直すことがしばしばある。 字を綺麗に書くことが毎日続けやすい環境があったらなと思いつき、字の練習を楽しみながら継続したくなるようなプロダクトを作ることに決めた。 課題とソリューション 今回の

                                        字を綺麗に書きたいPdMがiOSの書道アプリを作った話 - ABEJA Tech Blog
                                      • Jetson NanoでYoloをすぐ利用する - Qiita

                                        Jetson Download Center でSD Card Imageをダウンロードする この5GバイトのISOファイルの中にCudaやOpenCv、TensorRTが既にインストールされおり、開発環境を整えずにOSをインストールすればすぐに利用することができます。(パスは設定する必要あり) インストールされているソフトの中身はここから見ることができます JetPack TensorRT cuDNN CUDA Multimedia API Developer Tools 他 DeepStrem SDK Cudaのパスを設定する # vimをインストール sudo apt install vim $ sudo vim ~/.bashrc export PATH=/usr/local/cuda/bin:${PATH} export LD_LIBRARY_PATH=/usr/local/cu

                                          Jetson NanoでYoloをすぐ利用する - Qiita
                                        • DIYロボットカーレースで「Jetson Nano」のNVIDIAチームが1位に!他クラスでもワン・ツー獲得、ラップタイムが約半分の「Jetson」旋風 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                                          NVIDIAは、2019年9月にカリフォルニア州オークランドで開催されたロボットカー レースで「Jetson Nano」を利用したNVIDIAチームが「ストック」カー部門で1位を獲得。さらに高額の予算を使った車両が認められている「無制限」部門で、1位と2位のロボットカーに「Jetson」が利用されていたことを同社のブログで明かした。(以下の文章はブログの内容をまとめたものになる) シリコンバレーではDIY ロボットカーを使ったレーシングがブーム ジグザグ カーブを抜けてゴールするレーシング カー、声援を送る観客、ハイタッチするピットクルー。これはかの有名なNASCARのレース会場ではなく、とあるハードウェア コワーキング スペースでの光景だ。シリコンバレーでは今、このような場所がDIY ロボットカーを使ったレーシング カー ムーブメントの中心地になっている。 2019年9月のある日曜日。カ

                                            DIYロボットカーレースで「Jetson Nano」のNVIDIAチームが1位に!他クラスでもワン・ツー獲得、ラップタイムが約半分の「Jetson」旋風 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                                          • 「Ubuntu 20.10」が提供開始、Raspberry Piのデスクトップ環境をサポート可能に | Ledge.ai

                                            Canonicalは現地時間10月22日、公式ブログにおいて、Linuxディストリビューション「Ubuntu」の最新版「Ubuntu 20.10」をリリースしたことを公表。 「Ubuntu 20.10」では、従来からサポートしていたx86とARMデバイスに加え、デスクトップ用に最適化したシングルボードコンピュータ「Raspberry Pi(ラズベリー パイ)」用のイメージも追加された。 >>公式ブログ 該当ページ(英語) Raspberry PiとOpenCVでオフィスの居眠りを検知してみたなお、Ledge.aiでは過去に、Raspberry Piと画像処理ライブラリ「OpenCV」を用いて居眠りを検知し、自動でチャットワークに送信するシステムを作ってみた。興味のある人は以下の記事をチェックしてほしい。

                                              「Ubuntu 20.10」が提供開始、Raspberry Piのデスクトップ環境をサポート可能に | Ledge.ai
                                            • Raspberrypi zero WとEdge TPUを活用した侵入者通知アプリを作る - Y's note

                                              やること yut.hatenablog.com @yutakikuchi_です。 以前のBlog PostでRaspberrypi zeroとABEJA Platform(Cloud環境)を活用した侵入者通知アプリを作りました。解決したい課題としては、1階のマンションに住んでいる場合、庭・バルコニーへの不審者の立ち入りが気になります。そこで簡易的なRaspberrypiとLINE Botを利用し、簡易的な写真付きの侵入者通知アプリを作りたいと思いました。 前回はRaspberrypi側にcronで5秒間隔にて画像を撮影し、撮影された画像ををそのままABEJA PlatformのAPIへpostし、SSDにて人物検出を行いました。ただし、これには5秒以内に人がカメラの中に収まることを前提にしたものだったので、侵入者を見落とす可能性がありました。今回は人物検出をEdge側にてSSDで行い、リア

                                                Raspberrypi zero WとEdge TPUを活用した侵入者通知アプリを作る - Y's note
                                              • Flask, Vue.js, OpenCV, Pytorchで画像認識アプリをHerokuにデプロイする - Qiita

                                                Flask, Vue.js, OpenCV, Pytorchで画像認識アプリをHerokuにデプロイするPythonHerokuMachineLearningVue.js MNISTで学習したモデルを使って複数桁の数字を認識できないかと思った.ついでにWebアプリとしてデプロイもしてみた. - コード - アプリ 作業工程 機械学習モデルを学習 複数桁の数字を一桁の数字へ変換するモジュールを作成 Flask & Vue.jsのWebアプリを作成 Herokuへデプロイ 機械学習モデルを学習 PyTorch MNIST example - GitHubを参考にして学習. 学習に使用したコード→ ./server/modules/mnist.py 複数桁の数字を一桁の数字へ変換するモジュールを作成 コード→ ./server/modules/processes.py メソッドについて説明する.

                                                  Flask, Vue.js, OpenCV, Pytorchで画像認識アプリをHerokuにデプロイする - Qiita
                                                • プロジェクションマッピングを支える技術(ディープラーニングによる色補償) - Qiita

                                                  こんにちはodasatoshiです。 この記事はNTTドコモ サービスイノベーション部 Advent Calendar 2019の幻の26日目の記事です。 2019年も年の瀬です。毎日とても寒いですね。寒さで手がかじかむときは手元のGPUをフル稼働させて暖を取る日々です。 本日は、プロジェクションマッピングを支える技術、と題しましてプロジェクションにおける色の補償(Compensation)について紹介します。 背景 まずはこちらの写真をご覧ください。 普通の風景写真ですね。ディスプレイで表示しているならばそのディスプレイの設定に合わせてこの写真が表示されているはずです。 では、これをプロジェクタを用いて壁に映写するとどうでしょうか? こんな壁あるか?という心の声はさておき、壁の模様がくっきりと見えてしまっていますね。プロジェクションマッピングは、映写対象の形状や色などを生かした映像表現を

                                                    プロジェクションマッピングを支える技術(ディープラーニングによる色補償) - Qiita
                                                  • 任意のバーチャル背景を使えるページを作った - Qiita

                                                    TL; DR ウェブカムの入力から人物部分のみをくりぬいて背景画像と合成するWebページを作成した https://knok.github.io/virtbg/ 上記URLにアクセスし、"Start video"ボタンを押すと下に合成された動画が表示される "Stop video"で停止 ドラッグ&ドロップで背景画像を差し替え可能 ソースコード: https://github.com/knok/virtbg OBS Studio + 各種OS向けプラグインで任意のビデオ会議ツールに利用可能 jitsiでの動作例: 動機 非常に多くの企業・団体等がバーチャル背景を提供しています(例: Web会議で使える「 #バーチャル背景 」配布がブームに 企業まとめ (1/12) - ITmedia NEWS)。 あらかじめバーチャル背景をサポートした配信ツール(Zoom, Microsoft Teams

                                                      任意のバーチャル背景を使えるページを作った - Qiita
                                                    • PythonでRaspberryPiで撮影したカメラ映像をリアルタイム転送する - Qiita

                                                      はじめに 本記事は備忘録の一部です。 監視カメラでも作ろうかと過去のコードをぴっぱり出したところ、コピペでは動作しなくなっていたので、最近の仕様変更に合わせたコードへの修正となります。 具体的には、RaspberryPiで取得したデータをほかのデバイス(Pythonが動くもの)で表示させるというものになります。 本コードは拡張性が高く、リアルタイム映像をAI・機械学習等の処理にかけるときに別のサーバー上で処理ができるので大変重宝しております。簡易監視カメラにもなりますし、Pythonで書かれているのでNAS等に動画を保存しておくことも可能です。可能性は無限大と言えますね! 中華のIPカメラでやれよって話ですけどね。 目標 本記事では映像の転送にPython3.7を使用しております。いまだにRaspberryPiの標準装備だったので採用しました。 ライブラリにはSocketserverとOp

                                                        PythonでRaspberryPiで撮影したカメラ映像をリアルタイム転送する - Qiita
                                                      • 列優先(Column-major),行優先(Row-major)は複数ある - Qiita

                                                        はじめに 行列における列優先,行優先と言った場合,データ保持形式と数学的表現の2つの視点があります. 初学者は時に混同して説明してしまいがちですが,それぞれ別の概念であり,各項目における行・列の相反が成立する可能性がありますので,分けて認識しましょう. 本記事では,3次元幾何計算の文脈において,それらがどのように異なるのか,互いの変換はどう行うかを解説します.ついでに,列優先,行優先と合わせて語られることのある右手系,左手系についても言及します. データ保持形式における列優先,行優先 Column-major order, Row-major orderと書いた場合,こちらの意味になります. 本記事では,列優先データ順,行優先データ順と呼ぶことにします. 行列をプログラム内でデータ保持する場合,データアクセスの効率を考慮してメモリの連続領域にデータが置かれるのが多数です.そのデータの順が,

                                                          列優先(Column-major),行優先(Row-major)は複数ある - Qiita
                                                        • Slashcam News : Autodesk Smoke 2013 For Mac

                                                          Visiteurs depuis le 27/01/2019 : 4555 Connectés : 1 Record de connectés : 23 Slashcam News Autodesk Smoke 2013 For Mac Free DownloadTools and technical news about digital cinema's workflow, DSLRs and more. Follow Digital Cinema Tools on Twitter @tierible. Filtered by GoPro Hero 3. During this hour-long in-depth session, Stuart will look at some of the techniques WTHR employed making this ident --

                                                            Slashcam News : Autodesk Smoke 2013 For Mac
                                                          • Realsenseの赤外線カメラを利用して簡易モーショントラッキングを行う - Qiita

                                                            概要 この記事は 3D Sensor Advent Calendar 2019 の9日目の記事になります。 OptiTrack等のモーションキャプチャシステムが行っている赤外線カメラでマーカーをトラッキングして位置を追跡する手法をRealsenseの赤外線カメラと再帰性反射テープを使って作ってみたので紹介します。 出来る事 再帰性反射テープを張り付けた物体の位置をトラッキング出来ます。90FPSでトラッキング出来るので素早い動きもトラッキング出来ます。これらの処理を全てUnity上で行います。 以下のような事ができます。 #RealSense Realsense二台で再帰性反射材使ったモーショントラッキング。遅延も気にならないし、90FPSとれるので動きが早くてもトラッキング出来る。 pic.twitter.com/ZifZkVvRIW — unagi (@UnagiHuman) Marc

                                                              Realsenseの赤外線カメラを利用して簡易モーショントラッキングを行う - Qiita
                                                            • Python、ale_c.dllとopencv系のヤツ、探してゲットできるものまとめ

                                                              タルムード翻訳中。少々時間かかりそう……まあ多分少なくとも数年くらいは必要かなと(笑)解説書より本体を丸ごと読むんだよと思っていたものの、解説書をかじる方が賢明かもしれません。 300円くらいの安いやつ読書してみては。読書のすすめ。 「プログラミングは検索が半分」とかいう愚痴(?)が聞こえてきたりもするが、確かにその通りかもという気がすることも時々ある。 実際ちょっと検索方法を変えてみるとか、情報を仕入れてみれば案外あっさりと手に入れられるものも多々あるのでいくつか紹介がてらついでにここに貼って必要な時にダウンロードできるようにしとこうという思惑で書いてみることに。 ⑴createsamples.exe(opencv_createsamples.exeとも) haartraining.exe(opencv_traincascade.exeとも。両方とも名前は短くできます) この二つ探すのに

                                                                Python、ale_c.dllとopencv系のヤツ、探してゲットできるものまとめ
                                                              • カメラキャリブレーション — OpenCV-Python Tutorials 1 documentation

                                                                更に,カメラの内部パラメータや外部パラメータといった情報も必要になります. 内部パラメータ(Intrinsic parameters) とはカメラ固有のパラメータを指し,焦点距離 (),光学中心, () などです.内部パラメータはカメラ行列とも呼ばれます.このパラメータはカメラ固有のものであるため,一度計算すればそれ以降保存した値を使い続けられます.内部パラメータは3x3の行列として以下のように表されます: 外部パラメータはある座標系における3次元点の座標を別の座標系での座標に変換するための回転と並進のパラメータを指します. ステレオアプリケーションを作るためには,まず初めにこれらの歪みを解消(補正)する必要があります.これらのパラメータを推定するためにはチェスボードのように,(歪みが無かったとしたら)画像中でどのように見えるか想像できるパターンを何枚か撮影します.そのような特殊パターン上

                                                                • OpenCVでQRコードを複数同時検出する方法 [detectAndDecodeMulti] - OPTiM TECH BLOG

                                                                  OPTiM TECH BLOG Advent Calendar 2020 12/15 の記事です。 R&Dの加藤です。最近のマイブームは市場で魚を買う事です。(切り落としやテールですが)マグロも数百円で買えます。 今回は、タイトルにもある通り、OpenCVでQRコードを複数同時検出する方法をコードや動画を交えて紹介します。 前置き 覚えている方も多いかもしれませんが、MLKitの紹介をした時に以下のように説明しました。 OpenCVのQRコード検出のみ現状でマルチ検出に対応していません。 しかし、マルチ検出のプルリクエストが出ているので、気長に待ちましょう。 実はOpenCV 4.3からQRコード*1の複数同時検出に対応ました*2! という事で、OpenCV 4.3以降であれば簡単にQRコードの複数同時検出が可能になりました。 今までは複数のQRコードがある場合にどちらも検出できなかった(

                                                                    OpenCVでQRコードを複数同時検出する方法 [detectAndDecodeMulti] - OPTiM TECH BLOG
                                                                  • A Complete guide to Semantic Segmentation in 2024

                                                                    Published: May 19, 2021 ● Updated: Mar 21, 2024 IntroDeep learning has been very successful when working with images as data and is currently at a stage where it works better than humans on multiple use-cases. The most important problems that humans have been interested in solving with computer vision are image classification, object detection and segmentation in the increasing order of their diff

                                                                      A Complete guide to Semantic Segmentation in 2024
                                                                    • Google Colabの使い勝手を向上させる10の秘訣

                                                                      1.Google Colabの使い勝手を向上させる10の秘訣まとめ ・気軽にブラウザでPythonやライブラリを試せるGoogle Colabを更に便利に使うためのヒント ・ファイルのアップロード、ダウンロード、Googleドライブのマウントからシェル起動 ・github連携、DataFrame操作、TensorBoard呼び出し、子猫呼び出し、コーギー呼び出し 2.Google Colabを便利に使う為のTips 以下、towardsdatascience.comより「10 tricks for a better Google Colab experience」の意訳です。元記事の投稿は2020年6月5日、Cyprien NIELLYさんによる投稿です。 アイキャッチ画像はColabではなくてインドのColabaにあるタージマハル・ホテルで、クレジットはPhoto by Raj Rana

                                                                        Google Colabの使い勝手を向上させる10の秘訣
                                                                      • ゼロから学ぶディープラーニング推論

                                                                        本サイトの活用方法 現在、たくさんのディープラーニング技術情報が溢れていますが、数学や専門用語、プログラミング、フレームワーク、環境構築、用途、種類、フェーズなど、理解しなければならい項目が多く、何から学習すれば良いか分からず、ハードルが高いのが現状です。 ディープラーニングは、主に「学習」と「推論」に分かれます。まずは理解し易く応用に繋がる「推論」を学ぶことが、ディープラーニングを使いこなすことへの近道となります。「OpenVINO™ ツールキット」は、非常にシンプルなコード記述が可能で、豊富なサンプルを持っている無償ツールです。さらに「Neural Compute Stick」と「RaspberryPi」を使うことにより、小さくて安価な人工知能を作り出すことが可能です。本サイトでは、初心者の方から理解できるように、「ディープラーニングとは何か」「そもそも何が必要でどこで買えば良いのか」

                                                                          ゼロから学ぶディープラーニング推論
                                                                        • [OpenCV] Pytorchの手書き数字(MNIST)分類モデルをOpenCVから利用してみました | DevelopersIO

                                                                          1 はじめに CX事業本部の平内(SIN)です。 Pytorch入門ということで、MNIST(手書き数字のデータセット)から作成したモデルを使用して、OpenCVでWebカメラの動画を推論にかけてみました。 使用したモデルのコードは、Githubで公開されている、Pytorchの公式サンプルコードです。 https://github.com/pytorch/examples/blob/master/mnist/main.py 最初に動作しているようすです。 推論の対象となっているのは、画面の中央だけで、別ウインドウに表示されている部分です。 2 モデル 公開されているサンプルコードは、以下のようになっています。 (1) データセット データセットは、torchvisionによって、MNISTが利用されています。 取得時に、transformsによる変換を行って、訓練用とテスト用のデータロー

                                                                            [OpenCV] Pytorchの手書き数字(MNIST)分類モデルをOpenCVから利用してみました | DevelopersIO
                                                                          • ゼロから作るPHPとPythonの連携 on Laravel - Qiita

                                                                            はじめに PHPからPythonを実行して画像認識した結果を表示するソフトをLaravelベースで実装してみます。 画像認識の実装はTensorFlowでMNISTの学習をしてみるで、学習とテストを分離したものを実装していたので、それをベースにします。 [2020/4/15]ビューにBootstrapを導入 環境 OS: Ubuntu 18.04.4 LTS (Virtual BOX上) PHP:7.2 Laravel:7.5.2 Python:3.8.0 tensorflow:1.14.0 numpy:1.18.2 opencv:4.2.0.34 Ubuntu 18.04.4 LTSにデフォルトで入ってるPython3は3.6.9だったので、最新に上げています。併せて、Pythonで使うライブラリも入れます。 $sudo apt install python3.8 $sudo apt-g

                                                                              ゼロから作るPHPとPythonの連携 on Laravel - Qiita
                                                                            • Python でイラストの塗り残しを塗る - Qiita

                                                                              はじめに 下図のようなイラストの塗り残しを塗る処理がペイントソフトでは一発で出来なさそうだったので、Python と OpenCV で実装してみます。例えばアクリルキーホルダーなどの白版を入稿する場合、塗り残しがあると品質に影響が出る危険性があるため、しっかりと処理していきます。 入力画像 これは意図的に作成した画像ですが、線画と塗りの境界に塗り残しがあり、背景の緑色が透けてしまっていることが分かります。 (※分かりやすいように背景を緑色にしています。) アルゴリズムの説明 画像のアルファ値が 10以下の領域を $\boldsymbol{A}$、画像のアルファ値が 10 より大きく254以下の領域を $\boldsymbol{B}$ とします。このとき領域 $\boldsymbol{A}$ は本来透過しているべき領域であるとみなすことができます。一方、領域 $\boldsymbol{B}$

                                                                                Python でイラストの塗り残しを塗る - Qiita
                                                                              • ラズパイとTypetalkで今年の夏こそ植物の観察日記をやりとげる | 株式会社ヌーラボ(Nulab inc.)

                                                                                こんにちは、ヌーラボTypetalkチームの伊藤です。 本記事はブログリレーの7/26分になります。 植物の観察日記をつけたことがありますか? 皆さんは、植物の観察日記をつけたことがありますか? 夏休みになると宿題として課される、アレです。 私はいままで一度もこの課題をやり遂げられたことがありません。私の夏休みは常に「植物の観察日記をやり遂げられなかった」という悔しさで幕を閉じます。 20年以上経った現在でも、夏がくると思い出します。このままでは夏を心から楽しむことができません。そこで、この夏をかけて自身のトラウマを克服すべく、植物の観察日記にリベンジすることにしました。 なぜやりとげられないのか? 私なりにやり遂げられない原因を考えました。 毎日の水やりが面倒くなってしまう 植物の絵を描くのがストレス 途中で飽きてしまう これらは、私自身の問題に繋がります。 “毎日コツコツ” “決まった

                                                                                  ラズパイとTypetalkで今年の夏こそ植物の観察日記をやりとげる | 株式会社ヌーラボ(Nulab inc.)
                                                                                • OpenCVの使い方 | Tellus

                                                                                  このチャプターでは、コンピュータビジョン向けライブラリOpenCVを使った画像処理の基本的な方法を習得します。 本レッスンの内容を進めるにあたり、PCのメモリ容量として8GB以上が必須(16GB以上を推奨)となります。それよりも少ないメモリ容量のPCで実行すると、メモリの空き部分がなくなってしまい、コードの実行が強制的に終了するかもしれませんので、注意してください。 OpenCVは、インテル社が開発したオープンソースのコンピュータビジョン向けライブラリです。 画像の読み込みや書き込み、拡大縮小・回転、色変換などの基本的な加工だけでなく、輪郭抽出やノイズ除去などのフィルタ処理、物体が写っている領域を判定する物体検出などの機能もあります。また動画ファイルを読み込んで、1コマずつ処理することもできます。 OpenCVは、さまざまなプログラミング言語から利用できるライブラリですが、本レッスンでは、