タグ

画像処理とdeeplearningに関するanimistのブックマーク (8)

  • 会議中にスマホを触る政治家を機械学習と画像認識で検出

    会議の最中であるにもかかわらず、政治家が集中せずに手遊びしていたり居眠りしていたりする様子が中継に映り込むことがあります。これを、中継映像から機械学習と画像認識を用いて自動的に検出し、TwitterとInstagramのアカウントで映像付きで報告する仕組みが運用されています。 The Flemish Scrollers, 2021-2022 – Dries Depoorter https://driesdepoorter.be/theflemishscrollers/ Machine Learning Detects Distracted Politicians | Hackaday https://hackaday.com/2022/01/17/machine-learning-detects-distracted-politicians/ ベルギー人アーティストのドリス・ディポーター氏

    会議中にスマホを触る政治家を機械学習と画像認識で検出
    animist
    animist 2022/01/18
    おもろい。スマホはともかく、人の認識精度どんなもんなんだろう。どうやら個人名まで特定してるっぽいけど
  • ディープフェイクの行き先は今のところ身も蓋もない|阿楠

    顔が別人に差し替えられた映像を初めて見たときはとても驚いて、気持ち悪いけれど、わくわくもしました。ディープフェイクっていうんだなあ、AIってやっぱり凄いなあと思いました。 ディープフェイクでしびれまくった動画がありまして、シャイニングのジャック・ニコルソンをジム・キャリーにしちゃったこちらの作品です。ジム・キャリーのシャイニングもめちゃくちゃ怖いです。 ディープフェイクの映像は顔のパーツの位置や輪郭に違和感を感じやすいですが、この映像はほぼ違和感がなくて感動します。 もとはGIGAZINEさんで知りました。シャイニングの他のシーンも紹介されています。

    ディープフェイクの行き先は今のところ身も蓋もない|阿楠
    animist
    animist 2020/05/17
    いよいよ Post Truth な時代になりつつある。どうなるかなー。
  • ダーツが命中するかどうか、刺さる直前に教えてくれる装置を作った - Qiita

    ダーツが狙ったところに刺さるかどうか、投げた直後、つまり刺さる直前にお知らせすることで、0.2秒待てば分かることを0.2秒前に知って一喜一憂するためのアプリを作りました。 何を作ったか まず、的に向かってダーツを投げましょう。その様子をカメラで撮影し、その映像をもとにPC姿勢推定を行います。推定された姿勢をもとに、ルールベースでダーツを投げたことをPCで検知します。 投てきを検知したら、1秒分のデータをさかのぼって機械学習モデルに入力し、ダーツがブル(中心)に刺さるのかどうか予測します。その際、Edge TPUという高速で機械学習の予測を行うデバイスを利用します。 機械学習の判定の結果、ブルに刺さると思ったら「ピンポーン」外れると予測されたら「ブブー」と音がなって知らせてくれます。この時点でまだダーツは刺さっていません。 もし、外れると予測されたら悲しいですよね。まだダーツは刺さっていま

    ダーツが命中するかどうか、刺さる直前に教えてくれる装置を作った - Qiita
  • ディープラーニングで高性能な手の検出器を簡単に作る方法 - Qiita

    はじめに とある目的で、ディープラーニングで手を検出したいなと思いやってみました。最初は1から学習して全然性能が出なくて、絶望していたのですが学習済みモデルを使うことで簡単に高性能な検出器を手に入れることができました。頼るべきはネットの集合知ですね。特に@KzhtTkhsさんの以下ツイートに助けられました。 意外と無い不思議🐤 EgoHand Datasetを利用した以下の実装とかならあります🐤🐤https://t.co/h6U7ZENZI2 ハンドサインまでいれるとまず無いので、いつも自作しています……🐤🐤🐤 — 高橋かずひと@リベロ拝命🐤 (@KzhtTkhs) August 15, 2019 ネットに助けられたので、簡単に作りかたを記事にまとめてネットの海に放流いたします。 写真では1つの手ですが、原理的には、複数の手でも検出可能です(両手の検出までは自分でも確認してい

    ディープラーニングで高性能な手の検出器を簡単に作る方法 - Qiita
  • Deep Learningによるハンドサイン画像認識デモ 解説 (第三回) - 技ラボ

    「ビッグデータEXPO東京 2015春」に展示しました「Deep Learningを利用したハンドサイン画像認識のデモ」について、全三回に分けて解説します。 今回は第三回、最終回です。デモアプリケーションの核となっている、ハンドサイン画像の学習について解説します。 by NagasawaKazuki 2015/05/11 Deep Learningによるハンドサイン画像認識デモ 解説 (第一回)Deep Learningによるハンドサイン画像認識デモ 解説 (第二回)Deep Learningによるハンドサイン画像認識デモ 解説 (第三回) はじめに ISPは、2015年3月12日(木)、13日(金)にザ・プリンスパークタワー東京で開催された「ビッグデータEXPO 東京」に出展しました。 ブースでは「Deep Learningを利用したハンドサイン画像認識のデモ」と「Deep Learni

    Deep Learningによるハンドサイン画像認識デモ 解説 (第三回) - 技ラボ
  • 機械学習を使って焼肉で肉が焼けたかどうかを区別してみた【#Aidemynote AINOW賞】 | AI専門ニュースメディア AINOW

    AINOWはAIプログラミング学習サービス「Aidemy」を提供する株式会社アイデミーなどと共に完全オンラインの解析コンテスト #Aidemynoteを2018年6月に開催しました。 #Aidemynoteでは特別賞として2枠のAINOW賞を設けました。解析の新規性やインパクトなどを総合的に審査してAINOW賞を決定しましたのでご紹介します。 機械学習を使うことで、肉が焼けたのかどうかを判別するという投稿です。 Tatsuya Yokoyamaさんの記事です。ぜひご覧ください! Tatsuya Yokoyamaさんの記事はこちら[/btn] はじめに こんにちは。仕事で昨年末から機械学習が必要になり勉強しているのでQiitaにアウトプットしてみます。どうせなら人の役に立つことを、と思い色覚異常を持つ方のサポートになるかもしれないことにトライしてみました。 背景 焼肉で肉が焼けてるかどうか区

    機械学習を使って焼肉で肉が焼けたかどうかを区別してみた【#Aidemynote AINOW賞】 | AI専門ニュースメディア AINOW
  • 「私はロボットではありません」AIで突破 他のディープラーニングより“300倍”効率的なモデルが登場

    少ない訓練データで「CAPTCHA」の文字画像を認識できる学習モデルが、科学雑誌「Science」に掲載された。 Webサイトでの登録やログイン時に表示される「私はロボットではありません」の文言と、ぐにゃぐにゃに曲がった読みにくい文字。これらはWebサイトをクロールする「ボット」を弾き、人間が作業していることを証明する「CAPTCHA」というテストだ。 米国のAI企業Vicariousの研究者たちは、効率良くデータを学習してCAPTCHAに表示された文字を認識できる学習モデルの研究結果を、科学雑誌「Science」に掲載した。CAPTCHAの文字を認識するために必要となる訓練データは、従来のディープラーニング手法に比べて約300倍効率的になったという。 彼らは、少数の例から学習して一般化できる能力を持つ人間などの脳を参考に、神経科学の知見を導入した「再帰的皮質ネットワーク」(Recursi

    「私はロボットではありません」AIで突破 他のディープラーニングより“300倍”効率的なモデルが登場
  • Deep learning を用いた画像から説明文の自動生成に関する研究の紹介

    Deep Learningを用いた画像から説明文の自動生成の最新研究を調査したものを公開いたします。 数式の説明などかなり簡略したものですが、全体が俯瞰できるように工夫しましたので、何かのご参考になればと幸いです。 また、何か間違いがございましたら、ご指摘のほどよろしくお願いします。

    Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
  • 1