Public Domain Image 破壊的イノベーション(disruptive innovation)の発生には2つの前提条件があり、一つは既存産業が性能過剰(performance oversupply)の状況にあること、もう一つが、後発企業がコスト削減で起こす「市場を創造するイノベーション」に加えて、ニッチ製品のパフォーマンスを向上させる「持続可能なイノベーション」だ。最終的には、新規参入企業のニッチな製品が、既存企業が長年保持してきた主流の市場シェアを侵食し、「破壊的イノベーション」が出現する。 ChatGPT の登場以来、巷では「ジェネレーティブ AI 」がさまざまな業界に与える影響について話題になっているので、今回はジェネレーティブ AI をベースに破壊的イノベーションの概念を拡張し、ジェネレーティブ AI がどのような可能性があるのかについて話したいと思う。 その前に、
1.はじめに 一般的に、StyleGANベースでポートレートのスタイル転送をする場合、顔の位置合わせや領域について制約があります。今回ご紹介する DCT-Net は、これらの制約を解消する技術です。 *この論文は、2022.7に提出されました。 2.DCT-Netとは? 下図が、DCT-Net の概要図です。 まず、上段の Content Calibration Network を作成します。ベクトル zを入力として実写 Xs を生成する StyleGAN ネットワーク Gs と、これを Transfer learning してベクトル z を入力するとスタイル転送画像 Xt を生成するネットワークGtを組み合わせます。これによって、ベクトル z を入力すると実写 Xs とそれに対応するスタイル転送画像 Xt を生成するネットワークが出来ます。 次に、この Content Calibrat
Mojo Vision Micro-LED: the World's Smallest and Densest Dynamic Display In 2015, Mojo Vision started on a path to make an extremely small display, one that would fit into a contact lens, and succeeded. Mojo Vision’s talented team of engineers and scientists have created the world’s smallest and densest micro-LED display technology. Now the company is directing its resources to develop and commerci
要点 最先端機械学習モデル「Vision Transformer」に基づく、新たなレンズレスカメラの画像再構成手法を提案 提案した画像処理技術は高速に高品質な画像を生成できることを実証 小型・低コストかつ高機能であるため、IoT向け画像センシング等への活用に期待 概要 東京工業大学 工学院 情報通信系の潘秀曦(Pan Xiuxi)大学院生(博士後期課程3年)、陈啸(Chen Xiao)大学院生(博士後期課程2年)、武山彩織助教、山口雅浩教授らは、レンズレスカメラの画像処理を高速化し、高品質な画像を取得できる、Vision Transformer(ViT)[用語1]と呼ばれる最先端の機械学習技術を用いた新たな画像再構成手法を開発した。 カメラは通常、焦点の合った画像を撮影するためにレンズを必要とする。現在、IoT[用語2]の普及に伴い、場所を選ばず設置できるコンパクトで高機能な次世代カメラが
LogOn: Artificial Intelligence Helps Make Movies Speak Many Languages - VOA News、YouTube のっけが千葉真一なのにはびっくりしたけれど、それはさて措き、VOAが取り上げるくらいなのだから、もうとっくに知っているヒトは知っている話題なのかもしれないけれど、当方は初めて知った話ということでメモ。 これらの技術があれば、声優不要、吹替にはAIさえあれば大丈夫ということになる。吹替音声がAIで合成可能なばかりではなく、吹替先の言語に合わせた口の動きを正確に映像化出来てしまう。となれば、これはもう使われないはずはない技術だということになる(んぢゃないかな)。 イメージ部分に目を向ければ、「本日の備忘録/ディープフェイクとか」で触れたDeepFake、音声部分に関していえば「本日の降霊術2.0/声と顔」で取り上げたC
以下のヴィデオには、いずれにも気を動転させたり不愉快に感じさせたりするような映像が含まれている。その点をご留意の上、閲覧されたし。 ウガンダ首都で連続爆発、発生の瞬間をカメラが捉える 3人死亡 - Reuters Japan、YouTube 17日公開。防犯カメラだけで、これだけの映像が撮られたことにも驚かされる。 スーパーに車突っ込み 1人死亡 「アクセルとブレーキを・・・」 - TBS NEWS、YouTube 17日公開。これも防犯カメラによる映像。 実家界隈、散歩コースからほんの少し外れた場所での事故だった。 この事件をめぐっては容疑者の逮捕がtwitterのTLでも話題に上がっていたので、そのへんのメモを少し。逮捕は比較的多く共有された話題になっていたが、その後の釈放はほとんど話題になっていなかったみたい。 89歳男性、暴走事故で逮捕 飯塚幸三氏とは何が違う? - 弁護士ドットコ
映画『ジュラシック・パーク』(1993年)が今夜9時から「金曜ロードショー」で放送されます。この映画は、映像技術としても、古生物の表現方法としても、非常に革新的な映画で、その人気は衰えることなく今日まで続き、2022年にはシリーズ最新作である「ジュラシック・ワールド/ドミニオン」が公開予定です。 そこで今回は、第一作である「ジュラシック・パーク」が公開されてから約30年の間に、恐竜をはじめとする古生物の学説や、CGなどの映像テクノロジーがどのように変化したのかを見ていきたいと思います。 (映画版と、1990年に原作者マイケル・クライトンによって書かれた小説版とでは、登場人物や恐竜に関する設定がかなり異なります。そのためこの記事では映画版の設定について述べていきます)。 「ジュラシック」とは? 映画のタイトルにも入っている「ジュラシック」とは、地質時代をあらわす用語です。英語で書くと”Jur
Body Tracking and Projection Mapping Are Combined in This Out-Of-Body Art Project | Future Blink - Mashable、YouTube つい先日「本日の備忘録/Wide Dynamic Projection Mapping in Rhythmic Gymnastics」を取り上げたばかりだというのに。もちろん、あちらのほうが投影の追従速度は遥かに速いのではないかと思われもするのだけれど、同じような技術が実際の表現にすでに応用されているというところ、個人的に心を動かされた。 追従の速度と精度がどの程度なのかはわかんないけれど、うまく使えるなら動く隈取みたいなものとしてだって使えるわけで、舞台表現ではずいぶん応用の幅のあるものになってくるんだろうなぁ。 顔へのプロジェクション・マッピングそのものは、
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米ワシントン大学、米スタンフォード大学、米Adobe Researchによる研究チームが開発した「Lifespan Age Transformation Synthesis」は、1枚の顔写真から過去と未来の経年変化を推定する深層学習フレームワークだ。0歳から70歳までの頭部全体を予測する。 加齢をシミュレーションする既存手法の多くは質感の変化に限定されており、人間の老化や成長過程で生じる頭部形状の変化を見落としている。そのため、質の高い結果は得られていない。 この課題に挑戦するための理想的なモデルは、同一人物による1歳ごとのペア画像を用いて教師あり学習をすることだが、経年変化を捉えた大規模
An example of how a cameras capture rate changes due to the amount of light being let into the camera pic.twitter.com/t9oqUF5DsU — Learn Something (@knowIedgehub) January 18, 2021 これ、そのまま信じて構わない映像なのだろうか。 光量によって露光が自動的に変化しちゃうからこうなるという理屈は、わかる(ような気がしている)。明るければ、シャッタースピードや絞りを弄るものだとフィルムの頭では考えちゃうけれど、ディジタルヴィデオではコマ落とししてしまうというわけか。しかし、こういうありふれた変化で、こんなに光の捕捉具合が変わってしまうものなのか。 フィルムからディジタルヴィデオへという技術的な変化は、僕のような素人にとっ
マクセルが独自に開発した液晶ディスプレイ技術「LLIS」(Laser Like Image Source)と日本カーバイド工業の光学部材を組み合わせた再帰反射式の空中ディスプレイ。光が入射した方向へ戻る再帰反射現象を利用し、専用のリフレクターやビームスプリッターで空中に光を集め、結像する仕組みだ。 マクセルのLLISは、LCD(液晶ディスプレイ)が発する光の方向を制御し、再帰反射に適した映像光を生成する。これにより光のロスを抑え、明るく(2000nt)、高コントラスト(コントラスト比1200:1)の空中映像が作れるという。解像度は1920×1200ピクセルまで対応する。 センサーと組み合わせれば、空中に結像したスイッチやアイコンをタブレット端末のように操作するHMI(Human Machine Interface)ができる。画面に直接触れる必要がないため、医療機関や金融機関など不特定多数の
日本ロボット学会 ロボット工学セミナー 第126回 ロボットのための画像処理技術 講演資料 https://www.rsj.or.jp/event/seminar/news/2020/s126.html 2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては深層学習,その中でも特に畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.CNNはクラス分類をはじめとして,物体検出やセグメンテーションなど様々なタスクを解くためのベースネットワークとして広く利用されてきている.本講演では,CNNの発展を振り返るとともに,エッジデバイスで動作させる際に重要となる高速化等,関連する深層学習技術の解説を行う. 1. クラス分類向けモデルについて 1.1. ILSVRCで振り返る進化の歴史 1.2. その他重要なモデル 1
人間の目を模した構造を持ち、その反応速度は人間の目以上で、1平方センチメートルあたり約4億6000万個の光センサーを埋め込むことにより理論的には超高解像度を実現できるという「人工眼」を作り出す研究が行われています。 A biomimetic eye with a hemispherical perovskite nanowire array retina | Nature https://www.nature.com/articles/s41586-020-2285-x Artificial eye boosted by hemispherical retina https://www.nature.com/articles/d41586-020-01420-7 A new artificial eye mimics and may outperform human eyes | Scie
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く