東芝は、1台のカメラで数十人規模の集団を撮影した画像から、写っている人の数を従来手法よりも正確に推定する技術を開発した。物体の数を計測することもできる。公共エリアなどで、混雑状況によって生じるトラブルを防ぐといった用途に使えると同社はみている。画像処理などさまざまなサービスを提供している同社のクラウドサービス「RECAIUS」への2016年度中の搭載を目指す。
OpenCV(オープンシーヴィ)は多機能なコンピュータビジョンライブラリで、動画や画像の処理に幅広く利用できるさまざまな機能が実装されています。 動画・画像処理を用いたアプリやサービスを開発するために、OpenCVを学びたいと思っている方は少なくないのではないでしょうか。 そこで今回は、OpenCVが学べる資料(記事・サイト・スライド)を10個ご紹介します。 OpenCVを基礎から解説している資料を中心に紹介していますので、OpenCVの学習にぜひご活用ください。 OpenCVがわかる記事・サイト 10分で学ぶOpenCV超入門 / MetaArt http://iphone.moo.jp/app/?p=1101 「画像を読み込み表示する」「画像のサイズを変更する」「画像をグレースケール化する」「画像を2値化する」、以上の4つのOpenCVを使ったプログラムについて学べる記事です。 各コー
犯罪をたくらむ人物がまとう、独自の“オーラ”を検知するシステムが日本に上陸した。監視カメラで撮影した映像を基に不審者を素早く特定し、テロや犯罪を未然に防ぐ。東京五輪まであと4年。ソフトとハードの両面で、監視カメラが急速に進化している。 カメラ越しに人の精神状態を分析し、犯罪を起こす可能性の高い不審者を自動的にあぶりだす──。 こんな近未来の防犯システムが日本に上陸した。開発したのは、ロシア政府の研究機関を母体とするELSYS(エルシス)。監視カメラなどで撮影した人物の精神状態を「可視化」し、不審者を自動で検知する画像解析システム「DEFENDER-X」だ。 2000年にロシア、2001年に米国で技術の特許を取得した後、機能を改良。現在はロシアの空港に加え、韓国の仁川空港などでも稼働している。 2014年のソチ五輪では、入場ゲートや各競技施設に131セット(1セットにつきカメラ2台と1つの解
早稲田大学の研究グループはこのほど、ディープラーニングを応用し、白黒写真を自然な色に自動彩色する手法を確立したと発表した。プログラムのソースコードをGitHubで公開している。 新技術は、大量の白黒・カラー画像の組から、色づけの手がかりとなる特徴をディープラーニングにより学習し、その特徴を使って白黒画像をカラーに変換する技術。従来、白黒写真の色づけには人手が必要だったが、新技術なら全自動で彩色できる。 画像全体から抽出する「大域特徴」と、小さな領域から算出する「局所特徴」を結びつけて利用することで、画像全体を考慮した自然な色づけができるという。 大域特徴からは、屋内か屋外か、昼か夜かなど画像全体の情報を得、局所特徴からは、水か砂か葉かなど物体の質感を判断し、その領域をどう色づけするかが最も適当か推測。この組み合わせにより、夕暮れの空や人の肌など、状況に合った自然な色づけが可能になったという
鉛筆で描かれたラフスケッチをディープラーニングを用いて線画へとクリンナップする技術が早稲田大学の研究チームより発表され、話題を呼んでいます。 左の鉛筆描きのラフスケッチを、右の線画へと自動変換 自動変換された画像その2。なんかもういろいろとすごい 提案モデルは「すべての層が畳込み層のみから構成される多層ニューラルネットワークであり、ラフスケッチが入力されるとその線画が出力される」という これまでラフスケッチから線画への変換は困難とされていましたが、同論文では3種類の畳込み層から構成されるニューラルネットワークモデルを用いて複雑なラフと線画の対応を学習することで、ラフスケッチを良好に線画化することに成功したとしています。既存のツールとの比較画像も公開されており、飛躍的に精度が向上していることが分かります。 一番左の元画像を既存ツールの「Portrace」、「Adobe Live Trace」
複雑なラフスケッチを、まるで手でペン入れしたかのような線画に自動で変換してくれる新技術が早稲田大学の研究室によって発表されました。 シモセラ・エドガー ラフスケッチの自動線画化 http://hi.cs.waseda.ac.jp/~esimo/ja/research/sketch/ 早稲田大学のシモセラ・エドガー研究院助教らが開発したのは、鉛筆で描いたラフ画を一発で自動的に線画にしてくれる技術。例えば以下の画像でいうと、左側がラフ画スケッチ、右側がニューラルネットワークモデルで線画化したものです。 着物の女の子や…… お祭りっぽい雰囲気の女の子。 かなり線が重なっているように見えるお面のスケッチもこの通り。 複雑なスケッチでもかなりの精度で線画化しているのがわかります。 これまで、スキャンした鉛筆画など複雑なラフスケッチの線画化は非常に困難でした。しかし、新しい手法では3種類の畳込み層から
Microsoftが写真を自動認識して説明文(キャプション)を自動的に生成するボット「CaptionBot」を公開しているのだが、これによって生成された説明文が物議を醸しているという(MashableAsia、RBB TODAY、Slashdot)。 たとえば、ミシェル夫人を腕に抱くオバマ米大統領の写真には「スーツにネクタイの男性が携帯電話に話している」との説明文が出力された。また、昨年世界を二分する騒ぎを起こした「白金・青黒ドレス」については、「ネクタイを締めた猫」と判定されている。 TEAMROCK.COMでは13の写真をCaptionBotに判定させている。たとえばロックバンドMetallicaのメンバーがアイスホッケーチーム「San Jose Sharks」のマスコットキャラクターの着ぐるみと映っている写真では、CaptionBotは正しくメンバーのJames Hetfieldを認
Motivation for hand-optimized Assembly code There’s a popular saying that “in 90% of cases, a modern compiler writes faster code than a typical Assembly programmer would”. But anyone that has actually tested this theory knows how wrong this statement is! Hand-written Assembly code is ALWAYS faster and/or smaller than the equivalent compiled code, as long as the programmer understands the many intr
Googleの新しいディープラーニング(深層学習)マシン「PlaNet」は、画像から街頭の風景や屋内の物体の撮影場所を特定する作業において、人間を上回る能力を発揮する。 Googleはあらゆる写真を分析して、その撮影場所を正確に特定する能力を得たことになる。PlaNetの開発チームによると、同マシンは「人間を超える精度」でそれを行うことができるという。 Googleのニューラルネットワーク分野での取り組みであるPlaNetは、画像のピクセルだけを使ってこの作業ができると、MIT Technology Reviewは報じた。 このプロジェクトを主導するのは、Googleのコンピュータビジョン専門家であるTobias Weyand氏だ。Weyand氏の最新の論文によると、研究チームは「Google+」から取得した、ジオタグ(Exifの位置情報)データや画像メタデータを含む大量の画像データセット
By CHRISTOPHER DOMBRES Googleは画像の説明文章を自動生成する技術を開発したりと、機械学習やディープラーニングなどを用いて、人間レベルの高度な認識能力を持つコンピューターや人工知能の開発に取り組んできました。そんな中、人間を超える精度で「写真の『映像情報』のみで撮影場所を特定する」ことが可能な人工知能の開発にも成功していることが明らかになっています。 Google Unveils Neural Network with “Superhuman” Ability to Determine the Location of Almost Any Image https://www.technologyreview.com/s/600889/google-unveils-neural-network-with-superhuman-ability-to-determine
【朗報】画像の彩度とかいじってブラ透けさせるとぐうエロい Tweet 1: 以下、\(^o^)/でVIPがお送りします 2016/02/28(日) 21:52:22.770 ID:9l1IivG60.net ぐうエロい → 3: 以下、\(^o^)/でVIPがお送りします 2016/02/28(日) 21:53:13.213 ID:CP+qYylu0.net ほほう 5: 以下、\(^o^)/でVIPがお送りします 2016/02/28(日) 21:53:18.001 ID:udMbwa3L0.net おっ、そうだな 4: 以下、\(^o^)/でVIPがお送りします 2016/02/28(日) 21:53:15.120 ID:lBkFAbRU0.net なんか怖い 【事前予約】世界各国のアプリストアで上位を記録!大ヒットゲーム事前登録実施中! 9: 以下、\(^o^)/でVIPがお送りしま
東京急行電鉄は、駅構内の画像をスマートフォンに配信する「駅視-vision」(エキシビション)の実証実験を3月1日に始める。構内カメラの画像をアプリに配信し、事故の際などに混雑状況などを確認できるようにする。画像は個人が特定できない形に加工するという。 改札やコンコース付近の構内カメラ画像をプライバシー保護処理した上で取得し、公式アプリ「東急線アプリ」に配信する。大雪や人身事故など、大幅に運行が遅れる場合に駅の混雑状況をタイムリーに確認できるようにする。 まず田園都市線の溝の口駅、あざみ野駅でスタート。その後、三軒茶屋駅、二子玉川駅、東横線の武蔵小杉駅、日吉駅に順次拡大する。 東芝とNEC、日立製作所がデータ加工技術で協力しているが、運用とデータ管理は東急が行う。配信画像は、カメラシステムがプライバシー保護処理をした上で取得し、処理済みデータの取得から公開までは外部からのアクセスが不可能な
NEW GAME!の全コマをインクリメンタルに検索できるツールを作った。*1 経緯 NEW GAME! 3巻を読んだためNEW GAME熱が上ったので、ゆゆ式を無限に楽しみたかった話 〜 ゆゆ式 Advent Calendar 2014 20日目 〜 - non117's diaryのツール*2を移植し、コマ分割およびアノテーションの付与を行なった。 最初はコマの分割だけのつもりだったが、気がついたら各セリフの入力とキャラのタグづけも行なってしまった。 入力には一週間くらいかかっている。 アノテーションの付与が完了したので、各コマを検索するツールを作成した。 機能 セリフによるインクリメンタル検索 セリフによってコマをインクリメンタルに検索できる。また、該当のコマが単行本のどのあたりに登場しているのかも表示する。 また、すべてのセリフを入力しているため、セリフがないコマの検索もできる。 キ
Presentation of a Haitenai Feeling by Composing an Image of an Undressed Pantie Sekai NANAMI sekai3478@gmail.com, twitter id: Sekai_Nanami Abstract: This paper proposes presentation of a new "haitenai" feeling by composing an image of an undressed pantie to a girl character's legs. Undressed panties added to a girl's legs make users think she is now stripped and users feel eroticism. Key Words:
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く