並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 812件

新着順 人気順

opencvの検索結果241 - 280 件 / 812件

  • たった1時間!ChatGPTで画像にモザイクを掛ける実装をやらせてみた | TC3株式会社|GIG INNOVATED.

    はじめに ChatGPTが連日話題ですが1回の質問で人の顔にモザイクを掛ける実装が出来るか試してみました。何回か試してみた結果、1回では実装出来ない場合もありましたが概ね1回の質問で実装出来ることを確認出来ました。 ChatGPTはなんでもそれっぽい事を回答してくれる事は周知のことで、コーディングやバグ探しなどもやってくれるのですがどうせなら目に見えて結果がすぐ確認出来るイメージ処理で試してみたいと思いProcessingのコードを書かせてみました。 どういうイメージ処理の実装をやらせてみようかなと思ったのですが、画像ファイルを読み込み人の顔を自動で認識してモザイクを掛けるというのが面白そうだなと思い今回はそれをやってみることにしました。 事前準備 事前準備としては顔にモザイクをかけたいので人の顔が写っている画像の用意とProcessingをMacにインストールしておくだけです。 Proc

    • 【GitHub Copilot】今更ながら入門してみた! - Qiita

      GitHub Copilotは現在30日間フリートライアルを行っています。 (以前は60日だったような......) ずっと気になっていたので、GW中にtrialで使い倒してみようと思い入門してみます。 結論を先に書くと、素晴らしいツール! だけど新人/駆け出しで扱う場合は注意が必要 といった感想でした。 まだお試ししていない方は、本記事で私と一緒にtrial登録していきましょう! 本記事が少しでも読者様の学びに繋がれば幸いです! 「いいね」をしていただけると今後の励みになるので、是非お願いします! 環境 Ubuntu22.04 Python3.11.1 事前準備 GitHubアカウントの作成。 まだの方は「GitHubにSign Up」 導入 以下の手順でGitHub Copilotに登録します。 「GitHub Copilot」にアクセスしてStart my free trialをクリ

        【GitHub Copilot】今更ながら入門してみた! - Qiita
      • 静止画像と動画からの物体検出(Yolo3)をやってみる。/tensorflow v1+keras-yolo3 - SE_BOKUのまとめノート的ブログ

        目次 物体検出(Yolo3)をやってみる keras-yolo3をダウンロード Quick Start Quick Start:Download YOLOv3 weights from YOLO website Quick Start:Convert the Darknet YOLO model to a Keras model. Quick Start:物体検出する画像か動画を用意する 静止画像(写真)でRun YOLO detection.(物体検出実行) 動画でRun YOLO detection.(物体検出実行) 動画の物体検出がエラーになる場合・・その1 動画の物体検出がエラーになる場合・・その2 動画の物体検出結果の動画ファイルを保存 参考までに 物体検出(Yolo3)をやってみる DeepLearningベースの物体検出(Yolo3)のQuick Startをやってみました。

          静止画像と動画からの物体検出(Yolo3)をやってみる。/tensorflow v1+keras-yolo3 - SE_BOKUのまとめノート的ブログ
        • コンペ素人でもチームを組めば半年でKaggleとSIGNATEでメダルが取れた話 - Qiita

          はじめに 10月からprimeNumberにジョインしましたwakama1994です。 今回は私が転職活動と並行して行ったデータコンペの参加について書きます。コンペ参加は敷居が高いと感じてましたが、チームを組むことで敷居が下がり、メンバーからも学べることも多く、今後も継続してコンペに出たいと思えるようになりました。 データコンペをこれから始めたい方に向けて「チームで参加したら参加ハードルも下がって、楽しい!」ことをお伝えできればと思っています。 コンペ出る前の経験値 前職(新卒入社)でも3年ほどデータサイエンスを業務で使用 プログラム上の結果を読み解くのはある程度理解できていたが、その根本のモデリングや処理のプロセスについては理解不足 ゆくゆくはモデリングについても理解すべき思ってはいたものの、行動には移せてない状況 なぜコンペに行き着いたのか? 転職活動をやっていく中で、中途で採用される

            コンペ素人でもチームを組めば半年でKaggleとSIGNATEでメダルが取れた話 - Qiita
          • OpenCVの画像処理をGPU(CUDA)で高速化する - Qiita

            この記事について Jetson NanoにGPU(CUDA)が有効なOpenCVをインストール PythonでOpenCVのCUDA関数を使って、画像処理(リサイズ)を行う C++でOpenCVのCUDA関数を使って、画像処理(リサイズ)を行う 結論 (512x512 -> 300x300のリサイズの場合) 以下のように高速化できた CPU: 2.8 [msec] GPU: 約0.8 [msec] 注意 画像サイズと処理内容によっては、GPUの方が遅くなるので注意 環境 Jetson Nano (jetson-nano-sd-r32.2-2019-07-16.img) OpenCV 4.1.0 測定方法 処理時間測定の前には、以下コマンドを実施 ### 依存パッケージのインストール ### sudo apt update sudo apt upgrade sudo apt -y insta

              OpenCVの画像処理をGPU(CUDA)で高速化する - Qiita
            • 【Zoom or Die】第3回 torchvisionのI/O・前処理が新しくなった話 - Sansan Tech Blog

              こんにちは,DSOC研究開発部 Automation Groupの内田です. 普段オフィスではスタンディングデスクと曲面ディスプレイという環境で作業をしているのですが,秋は設備投資の季節ということで,一念発起して自宅にも曲面ディスプレイを導入しました.ディスプレイの広さは心の余裕ということで,QOLが爆上がりしています.皆さんも導入を検討してみてはいかがでしょうか? www.amazon.co.jp 宣伝はさておき,今回は PyTorch のエコシステムである torchvision が少し進化した話をしたいと思います. torchvision 近年の深層学習の隆盛は,簡単に深層モデルを実装できるフレームワークや周辺のエコシステムが整備されたことに起因していると言っても過言ではないでしょう.その中で,TensorFlowとPyTorchは深層学習フレームワークの二大巨塔と目されています.P

                【Zoom or Die】第3回 torchvisionのI/O・前処理が新しくなった話 - Sansan Tech Blog
              • 機械学習で歌舞伎町ライブカメラの人流を3D化してみる - Qiita

                はじめに この記事は「画像処理系の技術をつかってなにか作ろう!」というゆるい授業で作成したグループ自由課題を抜粋・一部改変して投稿したものです。 モデルの考案やシステムの開発は自分で行いましたが、Introductionでの調査や、実地測定はグループメンバーに手伝ってもらっています 学術論文っぽい体裁になってますが中身はエンジョイ企画なので軽い気持ちで読んでいってください! 先に結果をみたい方はこちら!! 🥚 Abstract 本プロジェクトでは莫大なサイズにもなりうるデータを利用価値を落とさずに、すなわち特定の人物の追跡などが可能な質を保ったまま効率的に保管・処理する手法を提案する。 新宿歌舞伎町に設置されている2台の防犯カメラに映る通行人を検出し、防犯カメラの仰俯角・方位角を推定した上でそれらの座標を3次元座標に変換した。複数の防犯カメラ映像から得られる座標群を合成することで2カメラ

                  機械学習で歌舞伎町ライブカメラの人流を3D化してみる - Qiita
                • Instant NGP (NeRF) のセットアップ方法

                  旧原宿駅と首里城を3D復元してみた。 写真から空間を構築するNeRFという技術。 2年前に撮影した原宿駅の16枚の写真と、 みんなの首里城プロジェクトの200枚の写真から生成。 ガラスや水、氷も3Dで再現出来るのすごいな。 pic.twitter.com/oERg8YNoEX — 龍 lilea / Ryo Fujiwara (@lileaLab) April 9, 2022 Instant NGP (NeRF) の使い方についてまとめました。 といってもセットアップ方法はNVIDIA公式のGitHubにあります。 ただ開発者ではない人にとっては (私にとっては) それを読んでも簡単にはビルドできなかったりしたので、各工程を備忘録としてまとめました。 NVIDIA公式のGitHubはこちらですが、私は解説動画を公開されているbycloudai氏のこちらのGitHubをベースに進めました。

                    Instant NGP (NeRF) のセットアップ方法
                  • OpenCVのカメラ読み込みを高速化し、遅延時間も短くする - Qiita

                    この記事について Raspberry PiにUSBカメラを接続してOpenCVで読み込むと、速度(FPS)が非常に遅いことがあります。また、PiCameraを使っても、解像度が高いと速度が出ないことがあります。 これを高速化します。対策は、単に圧縮フォーマットを指定するだけです。 速度が必要な場合は、非圧縮フォーマットじゃなくて、H264フォーマットなどを指定しましょう cap.set(cv2.CAP_PROP_FOURCC, cv2.VideoWriter_fourcc('H', '2', '6', '4')); [追記(2020/7/15)] 最近のOpenCV or Raspbianだと、H264フォーマットが指定できなくなってるっぽい ?? H264非サポートなWebカメラの場合には、MJPGが使える可能性があります。だけど、MJPGだとCPUパワーを結構使います CAP_PROP

                      OpenCVのカメラ読み込みを高速化し、遅延時間も短くする - Qiita
                    • OpenCV を XCFramework にして Swift Package Manager 経由で iOS で使ってみた - OPTiM TECH BLOG

                      この記事は OPTiM TECH BLOG Advent Calendar 2020 12/17 の記事であり、Swift その2 Advent Calendar 2020 の 17 日目の記事です。 こんにちは。R&D チームの久保です。今月でオープンソース化されてから 5 周年を迎えた Swift ですが、今回の記事はそんな Swift から OpenCV (C++) を今風のやり方で呼び出してみるまでの方法についてです。成功した方法だけ見ると大したことはなさそうですが、一歩足を踏み外すと多くの罠が潜んでいる状態だったので、今後同様のことをしたい人が同じ罠にはまらないようにまとめてみました。 XCFramework とは Swift Package Manager によるサポート なぜ OpenCV を XCFramework にして SwiftPM 経由で使おうと思ったか 必要環境

                        OpenCV を XCFramework にして Swift Package Manager 経由で iOS で使ってみた - OPTiM TECH BLOG
                      • クラウド側からのコマンドで動画が取得できる監視カメラを作ってみました | DevelopersIO

                        1 はじめに CX事業本部の平内(SIN)です。 Raspberry Piで監視カメラを作成し、クラウド側からコマンドを送ることで、指定した時間の動画が取得できる仕組みを試してみました。 この仕組みの利点としては、以下のようなものが上げられます。 リクエストされたデータだけをmp4形式で送信するので、通信帯域に負荷が少ない 通信帯域に負荷が少ない為、比較的解像度の高い動画が保存可能 動画を取得する時以外は、通信環境が不要 デバイスにディスクを追加することで、長期間の動画保存も可能 最初に、この監視カメラをドライブレコーダーのように使用してみた例です。 「動画を取得する時以外は、通信環境が不要」という特徴を生かして、雑ですが、車のフロントガラスの手前にシガラーターから電源を取って監視カメラとして動作させています。動画は、Wi-Fi環境が利用可能な所で、コマンドを送って取得しています。 2 構

                          クラウド側からのコマンドで動画が取得できる監視カメラを作ってみました | DevelopersIO
                        • 【初心者向け】PythonとOpenCVで画像処理を体験してみよう - RAKUS Developers Blog | ラクス エンジニアブログ

                          初めに 皆さん初めましてmosyoryです。 画像処理に興味はあるがどうやってやるのかわからない、そんな方もいるのではないでしょうか。 本記事ではWindows・Macの環境でPythonとOpenCVを使ってちょっとした画像処理の方法を紹介したいと思います。関数等の詳細な解説は行っていないので予めご了承ください。 初めに OpenCVとは OpenCVのインストール Windows Mac pipでインストールできない 基本操作 読み込み 表示 保存 画像処理 色空間の変換 二値化処理 輪郭検出 輪郭描画 終わりに 参考サイト OpenCVとは OpenCV(Open Source Computer Vision Library)とはオープンソースコンピュータ・ビジョン・ライブラリです。 画像処理や汎用的な数学処理、機械学習に関するアルゴリズムが多数含まれています。 C+、Python、

                            【初心者向け】PythonとOpenCVで画像処理を体験してみよう - RAKUS Developers Blog | ラクス エンジニアブログ
                          • DJI公式SDK「Tello-Python」を試そう - Qiita

                            (2023年6/28追記) DJI公式SDKのTello-Pyhtonを今から学ぶのは、正直オススメしません。 Telloを動かすプログラムをPythonで書く場合について、ここに紹介しておきます。 TelloのPythonプログラミング TelloをPythonで動かす方法は色々ありますが、筆者の把握している方法について以下に(独断と偏見ありで)解説します。 UDPのソケットプログラムを自力で書く TelloのSDKは、バイナリーのパケットではなくテキスト平文なので、UDPのソケットプログラムさえできれば動かすことができます。たとえば、以下のたった4行のプログラムでも動かせます。 import socket sock = socket.socket( socket.AF_INET, socket.SOCK_DGRAM ) # UDPソケットの作成 msg = input('command

                              DJI公式SDK「Tello-Python」を試そう - Qiita
                            • Open Source Virtual Background / elder.dev

                              Open Source Virtual Background:linux:🎥 April 9th, 2020 With many of us around the globe under shelter in place due to COVID-19 video calls have become a lot more common. In particular, ZOOM has controversially become very popular. Arguably Zoom’s most interesting feature is the “Virtual Background” support which allows users to replace the background behind them in their webcam video feed with an

                              • 【2020年版】とりあえず入れておくべきおすすめPythonパッケージ25選【Python】 - なろう分析記録

                                Pythonはパッケージを使うことで高度なことが手軽に実現できる Python上達の近道はパッケージを知ること Pythonは追加パッケージを導入することよって統計解析から画像処理まで様々なことが出来るようになります。 今回は数多く存在するPythonパッケージの中から、メジャーなものを25個ご紹介したいと思います。 パッケージのインストール・管理にはpipを使う pipを使うことでPythonパッケージを簡単にインストール・管理することが出来ます。 pipコマンド 現在入っているパッケージの確認 pip list 現在入っているパッケージリストの書き出し pip freeze > requirements.txt コマンドを実行する前にcdコマンドを使ってあらかじめrequirements.txtを書き出す場所に移動しておきましょう。 pip freeze Pythonパッケージのインス

                                  【2020年版】とりあえず入れておくべきおすすめPythonパッケージ25選【Python】 - なろう分析記録
                                • 異常検知技術を比較してみた(ルールベース, HLAC, PatchCore)

                                  はじめに 異常検知AIソフトウェア・クラウドサービスを提供しているアダコテックでエンジニアをしているshin-ueです! 今回は、弊社内で保有する電子部品を撮像した画像データに対して、異常検知を実施してみます。 そもそも異常検知って? 異常検知における異常とは、みなさん何を思い浮かべますか? 例えば、毎日休まず周期的な信号を出力してくれるシステムが一家に一台あったとします。 機械とよくケンカする僕みたいな人間は「ほんとうに周期的な信号だしてるのか!?」と疑いをかけてモニタリングしてしまいます。 t=9~11の出力値がいつもと違う変化をしているぞ・・・不良品だコイツこのやろう!(過激派) という感じで、「いつもの正常状態とは異なる状態」を異常と表現しています。 定期的に状態を監視し異常傾向を予兆してあげたり、異常状態を検出するような仕組みを作成し、異常発生したら関連システムにアラート信号を送

                                    異常検知技術を比較してみた(ルールベース, HLAC, PatchCore)
                                  • Streamlit: データサイエンティストのためのフロントエンド|NAVITIME_Tech

                                    こんにちは、けんにぃです。ナビタイムジャパンで公共交通の時刻表を使ったサービス開発やリリースフローの改善を担当しています。 今回はデータサイエンティストのためのフロントエンドとして最近注目を集めている Streamlit を使ってみた話をしようと思います。 Streamlit とはStreamlit は Python でフロントエンドを構築することが出来るフレームワークです。 https://www.streamlit.io/ なぜ Streamlit なのか?最近流行りの React や Vue でフロントエンドを構築するのではダメなのでしょうか?全くそんなことはありません。むしろ表現力の高さでいうと React や Vue のほうがずっと優れています。 問題になってくるのはデータサイエンティストが分析データをプロダクトに組み込むために必要とする作業コストがかなり高いということです。 例

                                      Streamlit: データサイエンティストのためのフロントエンド|NAVITIME_Tech
                                    • A 100x speedup with unsafe Python

                                      We're going to speed up some numpy code by 100x using "unsafe Python." Which is not quite the same as unsafe Rust, but it's a bit similar, and I'm not sure what else to call it... you'll see. It's not something you'd use in most Python code, but it's handy on occasion, and I think it shows "the nature of Python” from an interesting angle. So let's say you use pygame to write a simple game in Pytho

                                      • OpenAIのAPIを使って自社ブログ(DevelopersIO)の記事をベクトル検索するボットをつくってみた | DevelopersIO

                                        はじめに 新規事業統括部の山本です。 OpenAI APIをはじめとしたAIの言語モデル(Large Language Model:以下、LLM)を使用して、チャットボットを構築するケースが増えています。通常、LLMは学習したときのデータに含まれている内容以外に関する質問には回答できません。そのため、例えば社内の文章ファイルに関する質問に回答するチャットボットを作成しようとしても、質問に対してわからないという回答や異なる知識に基づいた回答が(当然ながら)得られてしまいます。 この問題を解決する方法として、Retrieval Augmented Generation(以下、RAG)という手法がよく使用されます。RAGでは、 ユーザからの質問に回答するために必要そうな内容が書かれた文章を検索する その文章をLLMへの入力(プロンプト)にプラスして渡す というフローにすることで、LLMが学習して

                                          OpenAIのAPIを使って自社ブログ(DevelopersIO)の記事をベクトル検索するボットをつくってみた | DevelopersIO
                                        • THETAプラグインでライブプリビューを扱いやすくする - Qiita

                                          はじめに リコーの @KA-2 です。 弊社ではRICOH THETAという全周囲360度撮れるカメラを出しています。 RICOH THETA VやRICOH THETA Z1は、OSにAndroidを採用しています。Androidアプリを作る感覚でTHETAをカスタマイズすることもでき、そのカスタマイズ機能を「プラグイン」と呼んでいます(詳細は本記事の末尾を参照)。 今回は、hogehoge認識と共に、認識結果に合わせた露出補正や、認識をトリガーに撮影なども行うTHETAプラグインが作成しやすくなる"土台"のプロジェクトファイル一式を作成したので紹介します。 2020年2月15日~2月16日に開催されたTMMF2020(Tsukuba Mini Maker Faire 2020)で、デモンストレーションしていた「Tensor Flow "Lite" でObject Detectionして

                                            THETAプラグインでライブプリビューを扱いやすくする - Qiita
                                          • Elasticsearchでマルチモーダル画像検索 1 - riktorのメモ

                                            Elasticsearchでマルチモーダル画像検索その1 前置き Elasticsearch 7.2が出る以前からexperimentalな機能としてvectorまわりを扱う機能が提供されていた。 経緯はよく覚えていないが、そのあとここでrevertされたと思ったらX-Packに入った、みたいなことだったと思う。 どんなものかというと、通常のクエリでヒットした文書セットを文書それぞれに予め付けておいたベクトルを利用した類似度でリランクできる、というものだ。 文書が持つ特殊なvector fieldになんらかのベクトルを入れておき、クエリ時にもそれらと比較可能なベクトルを渡すことで、_sourceに格納されているvector fieldを使ってscript内でベクトル間の距離をスコアリングに利用できる。 この機能によってできることというのは、 userとitemで行列分解したベクトルの内積で

                                              Elasticsearchでマルチモーダル画像検索 1 - riktorのメモ
                                            • AIに五等分の花嫁の正妻を判定させてみた - Qiita

                                              はじめに ラブコメの良し悪しはエンディングで決まると言っても過言ではない。 そして、ラブコメのエンディングは実に多様なものが存在する。特定の一人を選ばないハーレムエンド。ヒロイン一人一人のエンディングを用意するマルチエンド。特定の一人とだけ成就する個別エンド。 どのエンディングを迎えても必ずファンによる論争が繰り広げられるラブコメであるが、やはり一番議論が紛糾するのはなんといっても個別エンドではなかろうか。 中でもエンディングに関して紛糾した最近のラブコメといえば、そう、『五等分の花嫁』である。 本作のエンディングは四葉エンドだと言われている。 だが、他のヒロインとのifエンドを妄想するのもラブコメの一種の楽しみ方であるに違いない。 本記事はアニメ1期の画像を学習させた後AIに正妻を判定させ、他のヒロインとのあったかもしれないエンディングの可能性に、少しだけ思いを馳せてみるものとなっている

                                                AIに五等分の花嫁の正妻を判定させてみた - Qiita
                                              • ControlNet image sequence 2 image sequence script v2

                                                ControlNet image sequence 2 image sequence script v2 Added TemporalNet controlnet model support. Using this, it is possible to increase consistency between image sequences by inputting images from previous frames. Download the model file from here and put it in the same location as your other controlnet models. diff_control_sd15_temporalnet_fp16.safetensors · CiaraRowles/TemporalNet at main (huggi

                                                  ControlNet image sequence 2 image sequence script v2
                                                • THETAの中でOpenCVを動かす【プレビューフレーム応用編】 - Qiita

                                                  はじめに こんにちは、リコーの@roohii_3です。 これまでTHETAの中でOpenCVを動かすことに関して記事を書いてきました。 THETAの中でOpenCVを動かす (←NDKを使った例) THETAの中でOpenCVを動かす【プレビューフレーム取得編】 (←前回の記事) 本記事は「THETAの中でOpenCVを動かす【プレビューフレーム取得編】」の応用編です。 プレビューフレームから「動体検知」し、何か動くものを認識したら写真を撮る、といったようにTHETAを監視カメラ的なものに改造してみました。 コードは以下で公開しています。 https://github.com/theta-skunkworks/theta-plugin-opencv-detection-sample ※ 実装はいろいろと手を抜いてます。流用する場合はご注意を…。 開発環境 OpenCV Android pa

                                                    THETAの中でOpenCVを動かす【プレビューフレーム応用編】 - Qiita
                                                  • OpenCV 入門:画像処理・画像認識・機械学習の実装を徹底解説(全実装コード公開)

                                                    皆さん、突然ですが上の画像をご覧ください。 (画像引用:OpenCV公式サイトより) これは、画像認識技術の応用例の一つです。コンピューターが映像の範囲内で移動する複数の人間を検知し、その移動をリアルタイムで追跡している様子が見て取れます。かなりの数の人がいるにも関わらず、ほとんどの人を正確に検出することができていますね。画像認識とは、このように画像の数値情報のパターンから写っている物体を認識する手法のことを指します。(本稿で度々登場する物体検出という用語も画像認識と同様の意味を持つと考えていいでしょう。) また、これは画像認識の例ですが、高精度の画像認識を行うために必要不可欠なのが画像処理の技術です。画像処理とは、コンピュータを用いて画像に対して行う、色を変換したり変形させたり、ぼかしたりするなどの処理全般を指します。画像処理を行うことで、コンピュータが画像内の物体を認識しやすくなります

                                                    • Raspberry Pi & Python 開発ブログ トップページ - Raspberry Pi & Python 開発ブログ ☆彡

                                                      【スポンサーリンク】 こんにちは~。P.Hです。Raspberry Pi関連の自分の備忘録として作ったサイトですが、アクセス数がとんでもないことになっています。正直、びっくりしています。記事の数、内容もだいぶまとまってきましたので、今後は記事の追加だけでなく、ブラッシュアップも行っていきます。 ★読んでもらいたい記事★ Raspberry Piのまとめ Raspberry Piでできること、活用法を一気に紹介! こんなPiを見つけました! Revolution Pi vs Raspberry 4 Raspberry Piを産業用途で使用する方法 ラズパイ設定 セットアップ OSインストール 開発環境 仮想環境(pipenv) VS Code eclipse TeraTerm SSHログインマクロ 自動起動 Systemd Cron ネットワーク 無線LAN設定 DHCP/固定IP SSH

                                                        Raspberry Pi & Python 開発ブログ トップページ - Raspberry Pi & Python 開発ブログ ☆彡
                                                      • LCM-LoRA×DiffusersでリアルタイムAIお絵描きを試してみる

                                                        今日の話題はこちら 最近話題のリアルタイムAIお絵描きを実際にやってみようという回です。 使用技術 今回はタイトル通りDiffusersとLCM-Loraを使います。 AIによって画像生成をリアルタイムで行いながら、お絵描き補助をするというツールは実は画像生成AIが出てきた初期の方にあったりするのですが、今回はLCMという技術を使うことで画像生成速度が大幅に向上したことで、ほぼリアルタイムに書いたものがAIによって高品質化されるという点が相違点になります。 LCM及びLCM-LoRAとは 今回肝となるLCMですが、正式名称はlatent-consistency-modelといいます。 LCMが出てきたのは2023/10/6に公表された画像生成の高速化技術で、ものすごく簡潔に説明すると、従来の画像生成AIが複数のステップを踏みながらノイズを徐々に除去して画像生成するところを、一発でノイズ画像

                                                          LCM-LoRA×DiffusersでリアルタイムAIお絵描きを試してみる
                                                        • 画像処理で自炊書籍画像を読みやすく加工する 初級編

                                                          この記事は KLab Engineer Advent Calendar 2019 24日目の記事です。 AdventCalendarどころか、Qiitaへの、もっと言えばネットに向けた技術エントリの投稿自体が初めてになります suzuna-honda といいます。よろしくお願いします。 はじめに 私は書籍をスキャンして電子書籍として読む、いわゆる「本の自炊」を趣味としています。 不眠症のケがあり、眠くなるまでの暇潰しとして、自炊した本を読書するのが日課になっています。枕の横にはiPadが欠かせません。 どの程度、深く、この「本の自炊」と向き合っているかといいますと、 書籍のスキャン 1冊ごとにパッケージング、管理の為のタグ付け スキャンした画像の画質調整、端末(iPad/iPhone)への最適化 端末(iPad/iPhone)へのデータ転送、閲覧 までの一連のワークフロー、ほぼ全てのツール

                                                            画像処理で自炊書籍画像を読みやすく加工する 初級編
                                                          • 光学式マウスを改造してウェブカメラにする方法

                                                            光学式マウスを裏返すと、赤や青のライトが点灯しています。このライトは、マウスの動きを認識するセンサーの役割がありますが、そのセンサーを応用してマウスを改造することで、マウスで写真や映像を撮影できるウェブカメラに変身させたムービーが公開されています。 I Hacked a Mouse into a Camera! - YouTube ムービーでは、まずLogicoolマウスを分解しています。上下のカバーを取るにはネジを外す必要がありましたが、その中の回路基板は簡単なクリップでとめられているのみで、意外と楽にセンサーまでアクセスすることができたとのこと。 センサーには小さなカバーがかぶさっており、これを外すことで中を確認できます。 以下は、カバーを外して露出したセンサー部分を顕微鏡で拡大して見た様子。左側の白っぽい長方形のエリアが制御回路で、ワイヤ・ボンディングによって接続されています。右側の

                                                              光学式マウスを改造してウェブカメラにする方法
                                                            • GCP AutoML Vision で鍵かけ忘れを防ぐ仕組みを作る - kurainの壺

                                                              slack にカギの開閉が通知される様子 玄関ドアのカギが開いた時、閉じたときに slack に通知が来る仕組みを作りました。今のところうまく運用できていて、外出後にカギが不安になって玄関まで戻ってくることがなくなりQoLがあがった感があります。 この仕組はドアの画像から閉じたサムターンを検出することで実現しています。Raspbeery Pi 3 で毎秒1画像くらいの処理ができるので、カギの通知としては問題ないレイテンシーです。 物体識別を可視化してみる 肝となる画像認識部分は GCP の AutoML Vision で学習させています。画像10枚で実用的な精度が出るDNNモデルが取得できる手軽さはなかなかすごいものがあります。 もちろんこんな簡単な画像認識なら、OpenCV を使ってテンプレートマッチングでも良いのでは? と思う向きもあるでしょう。実際その手法も試していて、頑張ってチュー

                                                                GCP AutoML Vision で鍵かけ忘れを防ぐ仕組みを作る - kurainの壺
                                                              • Python OpenCV の cv2.imread 及び cv2.imwrite で日本語を含むファイルパスを取り扱う際の問題への対処について - Qiita

                                                                Python OpenCV の cv2.imread 及び cv2.imwrite で日本語を含むファイルパスを取り扱う際の問題への対処についてPythonOpenCV 概要 Python OpenCV で日本語を含むファイルパスを扱う際の以下2点の問題への対処方法の案. cv2.imread でファイルパスに日本語を含む画像を読み込もうとすると失敗する. cv2.imwrite を実行した際にファイルパスに含まれる日本語が化ける. 私の環境に問題...? → umyu様に「Windows & OpenCV の問題」とコメントいただきました. アスキー文字にしか対応していないみたい. Unicode Path/Filename for imread and imwrite · Issue Currently, the imread and imwrite method only suppo

                                                                  Python OpenCV の cv2.imread 及び cv2.imwrite で日本語を含むファイルパスを取り扱う際の問題への対処について - Qiita
                                                                • やっぱりWasm は C++!!!~Wasm/EmscriptenでOpenCVを使う~

                                                                  はじめに質問 Wasm は何で書く?Go? Rust? AssembyScript? やっぱりWasm は C++!!!~Wasm/EmscriptenでOpenCVを使う~ ※現状での個人の見解です。 ということで、Emscripten で OpenCV を扱うことについて記事です。 この記事の元ネタはWebAssembly Night #10の発表内容です。 そしてOpenCV Advent Calendar 2020 の 9 日目でもあります。 画像処理 on your Browserの時代 Wasm といえば最近はすっかり Go や Rust で書くことが盛り上がっていますが、まだまだ C++/Emscripten も活躍しどころがあります。ブラウザでのクライアント画像処理が代表的なものでしょう。 WebRTCインフラの充実 時雨堂 WebRTC SFU Sora/NTT Com.

                                                                    やっぱりWasm は C++!!!~Wasm/EmscriptenでOpenCVを使う~
                                                                  • OpenCVのカレンダー | Advent Calendar 2020 - Qiita

                                                                    2020年もOpenCVのライセンスがApache 2になったり、OpenCV AI Kitのファンディングが開始されたりと変化の多い年になりました。ということで今年も小ネタからディープなネタまで記事を募集します!また、記事本体はQiita以外に投稿してもらっても問題ありません。 過去のOpenCV Advent Calendar OpenCV Advent Calendar 2018 OpenCV Advent Calendar 2017 OpenCV Advent Calendar 2016 OpenCV Advent Calendar 2015

                                                                      OpenCVのカレンダー | Advent Calendar 2020 - Qiita
                                                                    • iOSアプリ「Pyto」でPythonを使ったお手軽カメラアプリ開発 - karaage. [からあげ]

                                                                      iOSアプリ「Pyto」 きっかけはTwitterでフォローしている @robo8080 さんの以下ツイートでした。 iPhone + Pyto + OpenCVで、画像から顔を検出して笑い男を上書き😁 pic.twitter.com/U5GOtNkQGy— robo8080 (@robo8080) June 7, 2020 これですが、以前から@robo8080 さんに、iOSアプリの「Pyto」というiPhone/iPad上でPython開発ができる(しかもOpenCVまで動く)ということを聞いていて気になっていたのですよね。有料ということと、iPhoneだけだと開発が難しそうということで二の足を踏んでいたのですが、やはり百聞は一見に如かずですね。デモをみてたまらず買ってしまいました。 Pyto - Python 3 Develobile S.p.A.開発ツール無料 自分が買ったとき

                                                                        iOSアプリ「Pyto」でPythonを使ったお手軽カメラアプリ開発 - karaage. [からあげ]
                                                                      • NDKでEquirectangularの回転処理をして物体を全方位トラッキングする - Qiita

                                                                        θとΦはいずれか一方の値域が-π/2~π/2、もう一方が-π~πになっていればよいです。 THETAは、Equirectangularという形式(地球儀と世界地図の関係における世界地図の形式)で映像が得られ、画像の縦軸がPitchを現しています。この地域が-π/2~π/2であるため、対応がとれるようにしてあります。こうしておくとEquirectangularの画像処理が行いやすいのです。直感的にもわかり易いです。 Equirectangularの見え方 ローカル座標において、Equirectangularがどのような映像になるかを示した図が以下です。 少々余談となりますが、この画像のψ、θ、Φをすべてグローバル座標系にあわせるEquirectangularの回転処理を「姿勢補正(Orientation correction)」と呼びます。θ、Φだけをグローバル座標系にあわせるEquirec

                                                                          NDKでEquirectangularの回転処理をして物体を全方位トラッキングする - Qiita
                                                                        • Jetson nanoの初期設定からOpenCVで画像認識するまで - Qiita

                                                                          Jetsonは、GPUで有名なNvidiaから発売されている、GPUを搭載しているシングルボードコンピュータです。 2020/02/14に発売された最新のB01 Jetson nanoを今回は利用します。 Amazonで本体だけで13,000円程度でした。 Jetson nanoはRaspberry Piとよく比較されますが、Jetson nanoはGPUが搭載されているので機械学習や画像認識などで強みがありそうです。 Jetson nanoと電源アダプタ(5V)とSDカードを購入しました。 SDカードは大容量で安いものもありますが、速度に影響が出るので、少し高くてもある程度有名どころをかっておくのがおすすめです。 あと、大きすぎるとまるっとバックアップする際に大変で、小さすぎるとOSだけでいっぱいいっぱいになってしまうのでJetson nanoの場合64GBくらいが丁度いいかなと思います

                                                                            Jetson nanoの初期設定からOpenCVで画像認識するまで - Qiita
                                                                          • Docker上のGUIアプリをホスト/リモートで描画する - かみのメモ

                                                                            今回は、リモートUbuntuサーバーのDockerコンテナ上で起動しているGUIアプリの画面を、ホスト自身やローカルのMac/Windowsのディスプレイに表示させる方法についてまとめてみます。 筆者は環境構築を楽に済ませるためにDockerを利用することが多いのですが、デフォルトのDockerコンテナではGUIを表示させることができないので、画像の確認やGUIアプリが付属しているOSSの動作確認をするときに不便です。 そこでコンテナ内でX11対応のアプリを起動し、それをローカル側にforwardすることでGUIを表示させてみます。 ※ 2020/06/02 : 申し訳ないことにX11の仕様を誤解していました。解説の中でクライアント/サーバーが逆になっていた部分を修正しました。 【2021/02/07 追記】 今回紹介するX11 Forwardingは、手軽に使える反面、複数のウィンドウが

                                                                              Docker上のGUIアプリをホスト/リモートで描画する - かみのメモ
                                                                            • 深層学習、機械学習の環境を自動インストール OpenCvとCudaの自動化 - Qiita

                                                                              Help us understand the problem. What is going on with this article?

                                                                                深層学習、機械学習の環境を自動インストール OpenCvとCudaの自動化 - Qiita
                                                                              • カメラとRaspberry Pi(Jetson)と機械学習を利用した スマート畑盗難防止カメラ 要件定義 アイディア - Qiita

                                                                                構成 Raspberry pi 5台 1台(管理機 送信用)は iot用のsim 管理者画面 webからも見れる 4台(子機) 無線アンテナを取り付ける 赤外線カメラをつける 人感センサーをつける 畑に設置し、畑を監視する。警告音を鳴らす。証拠映像を撮る 1台1万以下のラズベリーの構成にする 無線Lanアンテナをラズベリーに取り付け、無線ルーターを使わないようにしコストを減らす。ラズベリーだけで通信網を作る Dockerとノウハウを販売するビジネスモデルも考えてみる 赤外線カメラ、人感センサーを主力に使う。カメラ画像中心の機械学習型にしない。 センサーを使いCPUの負荷を軽くする。詳細映像からは機械学習で判断する すべてのRaspberry piを無線中継器にする。無線中継器同士をつなぐ 子機はteslowflowやopenCVを動かす (DellのTPUをつけて速度を上げる 機械学習ソフ

                                                                                  カメラとRaspberry Pi(Jetson)と機械学習を利用した スマート畑盗難防止カメラ 要件定義 アイディア - Qiita
                                                                                • WebカメラとJetsonと深層学習を利用した スマート畑盗難防止カメラ アイディア - Qiita

                                                                                  構成 Jetson 5台 1台 管理機 送信用 iOT用のsim 管理者画面 Webから見れる 4台 子機 無線アンテナを取り付ける 赤外線カメラをつける 要件定義 畑に設置し、畑を監視する。警告音を鳴らす。証拠映像を撮る Yoloを使い物体検出をおこなう。物体検出から動物かどうか判断する 動物を物体検出したらスマホなどに通知する 無線LanアンテナをJetsonに取り付け、無線ルーターを使わないようにしコストを減らす。Jetsonだけで通信網を作る センサーを使いCPUの負荷を軽くする。 すべてのJetsonを無線中継器にする。無線中継器同士をつなぐ Dockerとノウハウを販売するビジネスモデルも考えてみる センサー 人感センサーではなくYoloなど深層学習で物体検出をし動物かどうか判断する 24時間カメラが稼働している状態にする Lineやslack Mailなど スマホアプリに通知

                                                                                    WebカメラとJetsonと深層学習を利用した スマート畑盗難防止カメラ アイディア - Qiita