並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 47件

新着順 人気順

NeRFの検索結果1 - 40 件 / 47件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

NeRFに関するエントリは47件あります。 3D研究画像 などが関連タグです。 人気エントリには 『VRで注目、新技術「NeRF」の衝撃 様々な視点の画像を美しく合成』などがあります。
  • VRで注目、新技術「NeRF」の衝撃 様々な視点の画像を美しく合成

    複数の視点の画像から、新たな視点の画像を合成して作り出す「Novel View Synthesis」というタスクがある。VRやスポーツの自由視点映像などには不可欠な技術だ。この領域で驚異的な性能を発揮したのが「NeRF」(ナーフ)。果たしてどんなアルゴリズムで、美しい合成画像を作り出せるのか。世界中の研究者や技術者に衝撃を与えたその技術を、論文からひもといていく。 まずは下の3枚の画像を見ていただきたい(図1)。左の2枚の写真を基に、一番右の画像のような新たな視点の画像を生成する技術を、今回は紹介していく。コンピュータービジョン分野やコンピューターグラフィックス分野の主要な研究課題の1つであり、応用先にはVR(仮想現実)やスポーツの自由視点映像など、様々な分野が挙げられる。 これは「Novel View Synthesis」という、複数の視点の画像を手がかりに新たな視点の画像を合成する技術

      VRで注目、新技術「NeRF」の衝撃 様々な視点の画像を美しく合成
    • NeRF: Neural Radiance Fields

      NeRFRepresenting Scenes as Neural Radiance Fields for View SynthesisECCV 2020 Oral - Best Paper Honorable Mention

        NeRF: Neural Radiance Fields
      • 写真から生成した3Dモデルに人の手が触れたときの「弾力や揺れ」をリアルに再現する手法「PIE-NeRF」【研究紹介】

        写真から生成した3Dモデルに人の手が触れたときの「弾力や揺れ」をリアルに再現する手法「PIE-NeRF」【研究紹介】 2023年11月30日 山下 裕毅 先端テクノロジーの研究を論文ベースで記事にするWebメディア「Seamless/シームレス」(https://shiropen.com/)を運営。 米ユタ大学などに所属する研究者らが発表した論文「PIE-NeRF: Physics-based Interactive Elastodynamics with Neural Radiance Fields」は、物理ベースのシミュレーションをNeRFで生成された3Dシーンに適用する研究である。この統合により、静的な3Dシーンに物理法則(重力、力、運動)を適用し、動的特性のリアルなシミュレーションが可能となる。例えば、枝を引っ張って放すと、その力に応じて植物が揺れ動くような、3Dオブジェクトが実世

          写真から生成した3Dモデルに人の手が触れたときの「弾力や揺れ」をリアルに再現する手法「PIE-NeRF」【研究紹介】
        • 経験718:超カッコいいシューティングガン「NERF(ナーフ)イーグルポイント RD-8」で子供が大喜び!プレゼントにおすすめです!

          子供へのプレゼントに購入したNERF(ナーフ)エリート2.0シリーズ のイーグルポイント RD-8というライフルを紹介します。 とてもカッコよくて本格的なのに安い! プレゼントにおススメだと思いました! こんなに大きくてカッコいいライフルが売っているの? こんなに大きいのに約2000円ちょっとです!弾もスポンジ製で安心で遊べますよ! NERF(ナーフ)とは?アメリカのハズブロ社という会社が 販売しているガンタイプのおもちゃの事です。 「米国では玩具の銃は実銃と区別するために銃口などをオレンジにすることが求められているため、ナーフは必ず銃口部分のパーツが鮮やかなオレンジで成形され、それに合わせて本体もカラーリングされている」 だそうです。 今回はエリートシリーズという種類の銃を購入しましたが、商品ラインナップの豊富さに驚かされます・・・ (広告 NERFラインナップ) 箱が大きくてカッコいい

            経験718:超カッコいいシューティングガン「NERF(ナーフ)イーグルポイント RD-8」で子供が大喜び!プレゼントにおすすめです!
          • NeRFによる360°パノラマ屋内シーンの任意視点画像合成 - spacelyのブログ

            はじめに スペースリーでインターンをしている大隣嵩です。 弊社は空間データ活用プラットフォームを提供しており、パノラマ画像を使った空間の3Dビューワーをリリースしました。 研究開発チームでは、更なる精度向上やコンテンツ制作負担軽減のため、より精度が高く柔軟な3D再構成技術の研究開発を進めています。 NeRF(Neural Radiance Fields)[1]では、写実的な陰影表現を含むシーンの高精度な3Dキャプチャを行うことができます。最近になって、NeRFを簡単に試すことができるアプリ(LumaAI[2])やフレームワーク(nerfstudio[3])が登場したことにより、研究者以外の人でも簡単にNeRFを試すことができるようになっています。今回は、屋内シーンの360度動画を使ってNeRF(nerfstudio)の精度検証を行った結果を紹介します。NeRFの概要については単眼からの3D

              NeRFによる360°パノラマ屋内シーンの任意視点画像合成 - spacelyのブログ
            • 複数の静止画から3Dモデルを生成する技術「NeRF」はディープフェイクを進歩させるのか?

              ディープフェイクとはAIを利用して偽の人物画像・動画を作成する技術であり、有名人のフェイクポルノ動画や政治家のスピーチに見せかけたフェイク動画などが出回るなど、さまざまな分野で物議を醸しています。そんなディープフェイクが直面する課題や、その課題を克服する可能性を持っている「Neural Radiance Fields(ニューラル・ラディアンス・フィールド/NeRF)」といった技術について、AI開発企業のMetaphysic.aiがまとめています。 NeRF: An Eventual Successor for Deepfakes? - Metaphysic.ai https://metaphysic.ai/nerf-successor-deepfakes/ 近年はAI技術が飛躍的に進歩しており、2022年2月にイギリスのランカスター大学などが発表した研究では、ほとんどの人はAIが作り出した

                複数の静止画から3Dモデルを生成する技術「NeRF」はディープフェイクを進歩させるのか?
              • GANとどう違う?君は画像生成モデルNeRFを知っているか。

                3つの要点 ✔️ NeRFとは新規視点の画像生成ネットワークである。 ✔️ NeRFの入力は、5次元(空間座標のx,y,zと視点のθ,φ)で、出力は体積密度(≒透明感)と放射輝度(≒RGBカラー)である。 ✔️ NeRFによって従来よりも複雑な形状を持つ対象物の新規視点画像を得ることに成功した。 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis written by Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, Ren Ng (Submitted on 19 Mar 2020 (v1), last revised 3 Aug 2020 (this version,

                  GANとどう違う?君は画像生成モデルNeRFを知っているか。
                • 3D Gaussian Splatting for Real-Time Radiance Field Rendering - 複数写真や映像から3Dシーンを構築する技術!NeRFよりも高品質と話題の新Radiance Fieldメソッド!SIGGRAPH 2023!

                  AI 技術 技術-Technology NormalmapLighting - とりにく氏による線画から法線マップを生成... 2024-04-04 とりにく氏( @tori29umai )による線画から陰影を出力するAIアプリ「NormalmapLighting」がFanboxにて早期アクセス公開されています。 続きを読む Unreal Engine アセット アセット-Asset Procedural City Generator - Procedural W... 2024-04-03 Procedural World LabによるUnreal Engine 5向け都市生成プラグイン『Procedural City Generator』のご紹介です。 続きを読む モデリング 技術 技術-Technology MonoHair:High-Fidelity Hair Modeling f

                  • Instant NGP (NeRF) のセットアップ方法

                    旧原宿駅と首里城を3D復元してみた。 写真から空間を構築するNeRFという技術。 2年前に撮影した原宿駅の16枚の写真と、 みんなの首里城プロジェクトの200枚の写真から生成。 ガラスや水、氷も3Dで再現出来るのすごいな。 pic.twitter.com/oERg8YNoEX — 龍 lilea / Ryo Fujiwara (@lileaLab) April 9, 2022 Instant NGP (NeRF) の使い方についてまとめました。 といってもセットアップ方法はNVIDIA公式のGitHubにあります。 ただ開発者ではない人にとっては (私にとっては) それを読んでも簡単にはビルドできなかったりしたので、各工程を備忘録としてまとめました。 NVIDIA公式のGitHubはこちらですが、私は解説動画を公開されているbycloudai氏のこちらのGitHubをベースに進めました。

                      Instant NGP (NeRF) のセットアップ方法
                    • Zip-NeRF: Anti-Aliased Grid-Based Neural Radiance Fields

                      We use multisampling to approximate the average NGP feature over a conical frustum, by constructing a 6-sample pattern that exactly matches the frustum's first and second moments. When training, we randomly rotate and flip (along the ray axis) each pattern, and when rendering we deterministically flip and rotate each adjacent pattern by 30 degrees. XY aliasing A naive baseline (left) combining mip

                        Zip-NeRF: Anti-Aliased Grid-Based Neural Radiance Fields
                      • NeRF in the Wild

                        NeRF-W captures lighting and photometric post-processing in a low-dimensional latent embedding space. Interpolating between two embeddings smoothly captures variation in appearance without affecting 3D geometry.

                        • 数式を使わずにやさしく解説するNeRF: Neural Radiance Fields | TechBlog | LeapMind株式会社

                          NeRF: Representing Scenes as Neural Radiance Fields for View Synthesisは2020年を代表する深層学習関連の論文の一本であることは間違いないでしょう。もう2022年も2月に差し掛かっていますが、いまさらながら、NeRFの論文を読んだので、初見の際にわかりづらかったところを解説してみます。 NeRFでできること NeRFは、100枚程度の画像データから、そのシーンの三次元形状を復元し、新しい視点からの画像を生成します。以下の動画を再生していただければわかるように、かなり自然な新視点画像生成が行えます。学習に使うのは画像だけなので、写真を撮るだけで現実のシーンにも適用できます。 NeRFには以下のような制約があります。 シーンは静的でなければならない 何らかの手法を使って各画像の外部カメラパラメーターを求めておかなければならな

                            数式を使わずにやさしく解説するNeRF: Neural Radiance Fields | TechBlog | LeapMind株式会社
                          • 好きな方向から視聴できる3D映像をAIで生成 PFNが「NeRF」技術を応用

                            複数カメラで撮影すると、それを3Dモデルに変換し、好きな方向から自由に閲覧できる3D映像を作り出す──。そんな技術「PFN 4D Scan」を、AIベンチャーのPreferred Networks(PFN、東京都千代田区)が開発した。10月26日から幕張メッセで開催中の「メタバース総合展【秋】」のブースにて、デモ展示している。

                              好きな方向から視聴できる3D映像をAIで生成 PFNが「NeRF」技術を応用
                            • 画像生成技術「NeRF」を使ったiOS向け3Dスキャンアプリ『Luma AI』のベータ版、参加枠を大幅増加。より多くの人が利用できるように

                              2022年10月13日、『Luma AI』ベータ版の参加枠が大幅増加 画像生成技術「NeRF」を利用したアプリで、iOS端末で簡単に物体を3Dスキャン可能 『Luma AI』ベータ版を利用するには、参加待機リストへの登録が必要 2022年10月13日、Luma AIは、ベータ版の3Dスキャンアプリ『Luma AI』への参加枠を大幅に増加。利用できるユーザーを大幅に増やしたことを発表しました。 🚀 Starting today we are dramatically expanding the access to the Luma beta. We have been working on this for a while to get our systems ready. We are sending out invites hourly to folks on the waitlist

                                画像生成技術「NeRF」を使ったiOS向け3Dスキャンアプリ『Luma AI』のベータ版、参加枠を大幅増加。より多くの人が利用できるように
                              • 電動ナーフはじめました【NERF】

                                ●世の中が電動化に向かいつつある昨今やはり我々としてもだな●mylist/6616873●https://twitter.com/tech_yuuta

                                  電動ナーフはじめました【NERF】
                                • GitHub - ashawkey/stable-dreamfusion: Text-to-3D & Image-to-3D & Mesh Exportation with NeRF + Diffusion.

                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                    GitHub - ashawkey/stable-dreamfusion: Text-to-3D & Image-to-3D & Mesh Exportation with NeRF + Diffusion.
                                  • 静止画から3Dイメージを作成し天気や撮影時間帯もどんどん変えられる「NeRF in the Wild」

                                    画像を加工する時に、「この被写体の角度をもうちょっと変えられれば……」と考えたことがある人はいるはず。Googleの研究チームが新たに開発した技術は、そんな望みを叶える、「被写体をさまざまな角度からクリアに見られる3Dイメージを静止画から作り出す技術」です。「Neural Radiance Fields」(ニューラル・ラディアンス・フィールド/NeRF)という技術を発展させたすさまじいものになっています。 NeRF in the Wild https://nerf-w.github.io/ [2008.02268] NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections https://arxiv.org/abs/2008.02268 「NeRF in the Wild」(野生のNeRF)と呼

                                      静止画から3Dイメージを作成し天気や撮影時間帯もどんどん変えられる「NeRF in the Wild」
                                    • NeRF at CVPR 2022

                                      There are more than 50 papers related to Neural Radiance Fields (NeRFs) at the CVPR 2022 conference. With my former student and now colleague at Google Research, Andrew Marmon, we rounded up all papers we could find and organized them here for our edification, and your reading pleasure. Below are all the papers at CVPR’22 that we could find by scanning titles and reading the associated papers, som

                                      • NeRF-RPN:NeRF上で物体検出する技術

                                        はじめに こんにちは。ZENKIGEN DSチームに所属しているはまなすです。DeNA AI技術開発部より[1]、業務委託という形で主に深層学習系の開発に携わっています。 今回は、ニューラルネットワークを用いて3次元空間を表現する NeRF という技術に基づいた、立体空間内で物体検出をおこなう手法 NeRF-RPN についてご紹介します。 本研究は昨年末に発表されたものですが、今のところ実験結果が限定的であるため、直ちに実応用に展開されているわけではありません。一方で、今回ご紹介するような『NeRFの上に積み重なる手法』は、NeRFを活用する土壌をさらに拡大させる一翼を担っていくことが期待されます。 近年は表現技術としてのNeRFそれ自体の発展が目覚ましいですが、NeRF-RPN は、その上で『なにをするか』を充実させるためのひとつの基礎研究となるでしょう。 ▼ NeRF-RPN はなにを

                                          NeRF-RPN:NeRF上で物体検出する技術
                                        • 「NeRF(ナーフ)」を活用した世界初のTVCMが放映! NeRFとはなにか、既存の3DCG制作ワークフローとの親和性や実用性とともに紹介

                                          TOP ニュース 「NeRF(ナーフ)」を活用した世界初のTVCMが放映! NeRFとはなにか、既存の3DCG制作ワークフローとの親和性や実用性とともに紹介 2023/01/30 「NeRF(ナーフ)」を活用した世界初のTVCMが放映! NeRFとはなにか、既存の3DCG制作ワークフローとの親和性や実用性とともに紹介 Image Courtesy of McDonald’s 複数のアングルから撮影された画像データから、AIを活用して自由視点の3Dシーンを生成する手法「NeRF」(ナーフ)が注目されている。2023年1月、米国マクドナルドがTVコマーシャルとして世界ではじめてNeRFを用いた広告キャンペーンを放映し話題を集めた。NeRFとはどんな技術なのか、CG制作のワークフローとの親和性や実用性について、CGWORLDアドバイザーのコメントとともに紹介したい。 ※キャンペーンサイトはこちら

                                            「NeRF(ナーフ)」を活用した世界初のTVCMが放映! NeRFとはなにか、既存の3DCG制作ワークフローとの親和性や実用性とともに紹介
                                          • GitHub - NVlabs/instant-ngp: Instant neural graphics primitives: lightning fast NeRF and more

                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                              GitHub - NVlabs/instant-ngp: Instant neural graphics primitives: lightning fast NeRF and more
                                            • 増田はそろそろNerfすべき

                                              書き散らすための増田と共感狙いやツッコミ待ちの増田を分けることによって、毎週二桁ブクマの増田を複数書けて、月に数回ホッテントリするコツみたいなのが判ってきた。 「月に数回www雑魚wwww」みたいな増田も居るかも知れないが、それは増田がスゴイのではなく増田が強いってだけ。 ちなみに増田は日産2~3増田ぐらい。 もっと量産してるにせよ、少数精増でやってるにせよ、毎週複数エントリでホッテントリできてるならさっさと顕名に移行してマネタイズしたらいいと思う。 それができない、する気が起きないでしょ。ってことは 増田の匿名という特性に因るコンテンツが有意である増田という場がバズらせるのに有効(かつほとんどの増田にとっては必要不可欠)であるということである。他にも色々あるかもしれない。(スルーされてもダメージないし、過去の発言掘られないし、そこそこかまってもらえるし) とにかく、増田の匿名の美意識とい

                                                増田はそろそろNerfすべき
                                              • NeRFの仕組みを1からわかりやすくまとめたい - kentaPtの日記

                                                1. はじめに NeRF (Neural Radiance Field) とは、複雑なシーンに対して、任意の視点からの3次元的なシーンを画像から再構成する技術です。以下の動画にあるように、物体に対して、様々な角度から見たときのシーンをキレイに再現することができます。反射に関しても、それぞれの角度から見たときの見え方が反映されており、角度によって同じ場所でも微妙に違う反射特性を見て取ることができます。この手法を利用して、例えば、地点AとBで画像を取得した場合、その中間地点の任意の角度から対象物体を見たときのシーンを生成可能です。 この記事では、このNeRFと呼ばれる技術と、それを実行するにあたって必要な周辺の技術について簡単にまとめたいと思います。以下に示す、NeRFの論文と照らし合わせてながら解説を行います。しかし、本記事では、NeRFを実行するまでの流れを示すため、各要素技術に関しては詳

                                                  NeRFの仕組みを1からわかりやすくまとめたい - kentaPtの日記
                                                • NeRF at ICCV 2021

                                                  In anticipation of ICCV (Intl. Conf. on Computer Vision) this week, I rounded up all papers that use Neural Radiance Fields (NeRFs) that will be represented in the main #ICCV2021 conference. Many of the papers I discussed in my original blog-post on NerF made it into CVPR, but the sheer number of NeRF-style papers that appeared on Arxiv this year meant I could no longer keep up. The top Computer V

                                                  • 3D Gaussian SplattingはNeRFをこえるかトレンドになるか?複数視点の画像から3D空間を再現する最新手法論文解説! - Qiita

                                                    3D Gaussian SplattingはNeRFをこえるかトレンドになるか?複数視点の画像から3D空間を再現する最新手法論文解説!論文コンピュータビジョン論文読み論文紹介3DGaussianSplatting 対象論文 3D Gaussian Splattingの概要 Luma AIでNeRFについで注目のコンピュータビジョンや医療画像処理など、様々な3D画像処理アプリケーションにおいて使用されるテクニックです。この手法は、データポイントを3D空間に「スプラット(splat)」することで、スパースなデータから連続的なボリュームデータを生成します。 0.忙しい方へのまとめ NeRFは高い画質の3Dモデルングを生成することができます。 しかし、NeRFで高画質画像を生成するには訓練とレンダリングにコストのかかるニューラルネットワークを必要とします。 3D Gaussian Splattin

                                                      3D Gaussian SplattingはNeRFをこえるかトレンドになるか?複数視点の画像から3D空間を再現する最新手法論文解説! - Qiita
                                                    • 3DキャプチャツールLuma AIを使ってスマホでNeRFを体験しよう!- STYLY

                                                      こちらのシーンは、Web版Luma AIの3Dビューワーで見ることが可能です。 3Dビューワーで見る ARで表示する(スマホ) この記事をスマホで見ている方は、下のボタンを選択してください。 スマホの方はこちら ARで表示する(パソコン) この記事をパソコンで見ている方は、下のQRコードをスマホのカメラで読み取ってください。 Luma AIとは スマホ1つで高精度な3Dモデルの作成と出力ができる3Dキャプチャツール。 NeRFというAIを用いた画像生成技術を使うことで、今までの3Dスキャンアプリでは難しかった写実的な陰影表現などもできるようになっているのが特徴的です。 現在(2022/12/08)ではWeb版とアプリのベータ版があり、ベータ版はiOSユーザーのみ体験可能です。 また、出力は「GLTF」「OBJ」「PLY」に対応しています。 Luma AIの長所 現実感の再現度が高い 下記の

                                                      • Block-NeRF

                                                        We present Block-NeRF, a variant of Neural Radiance Fields that can represent large-scale environments. Specifically, we demonstrate that when scaling NeRF to render city-scale scenes spanning multiple blocks, it is vital to decompose the scene into individually trained NeRFs. This decomposition decouples rendering time from scene size, enables rendering to scale to arbitrarily large environments,

                                                          Block-NeRF
                                                        • NeRF:視点を自由自在に動かせる画像の生成技術 | 知財図鑑

                                                          「NeRF」(Neural Radiance Fields)は、さまざまな角度から撮影した複数の写真から、自由視点画像を生成する技術。深層学習によって生成された画像を通じて、好きな視点から対象物を見ることができる。画像の自動生成では、光の反射具合や透けて見える景色の映り具合といった情報を再現することは難しいとされていたが、「NeRF」を用いれば、そういった複雑な情報を持つ高精細な画像を単純な情報から作り出すことができる。将来的には、仮想世界と現実世界の複合技術(MR;Mixed Reality)の分野などへの応用が期待されている。

                                                            NeRF:視点を自由自在に動かせる画像の生成技術 | 知財図鑑
                                                          • CVPR2023で登場したNeRF論文を紹介 - NTT Communications Engineers' Blog

                                                            目次 目次 はじめに NeRFの概要と最近の課題 モデル軽量化に関する論文 PlenVDB: Memory Efficient VDB-Based Radiance Fields for Fast Training and Rendering Masked Wavelet Representation for Compact Neural Radiance Fields MobileNeRF: Exploiting the Polygon Rasterization Pipeline for Efficient Neural Field Rendering on Mobile Architectures 表現力の拡張に関する論文 K-Planes: Explicit Radiance Fields in Space, Time, and Appearance ABLE-NeRF: Atten

                                                              CVPR2023で登場したNeRF論文を紹介 - NTT Communications Engineers' Blog
                                                            • Instant NeRF の心臓、Multiresolution Hash Encoding をシンプルに実装しつつ2次元画像で試してみる - OPTiM TECH BLOG

                                                              こんにちは、プラットフォーム事業部の河内です。最近は新オフィスを堪能しています。 さて、今年の 3 月に NVIDIA から Instant NeRF という手法が発表されました。 blogs.nvidia.co.jp NeRF がどんなものなのか、Instant NeRF が今までの手法と比べ何がすごいのかについては上記の記事でおおまかに掴めるかと思いますが、中身が気になるところです。 NVIDIA の記事中で Tiny CUDA Neural Networks ライブラリを使用とあるのでリポジトリを見てみると、どうやら TensorFlow や PyTorch を利用したものではなく、Instant NeRF の根幹となる手法のためにチューニングされたフレームワークのようです。 github.com リポジトリの README では 2 つの手法とその論文が引用されており、ひとつは "

                                                                Instant NeRF の心臓、Multiresolution Hash Encoding をシンプルに実装しつつ2次元画像で試してみる - OPTiM TECH BLOG
                                                              • 複数写真から自由視点画像を生成 Googleなど「NeRF」開発

                                                                Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米カリフォルニア大学バークレー校、米Googleの研究部門であるGoogle Research、米カリフォルニア大学サンディエゴ校による研究チームが開発した「NeRF」は、さまざまな角度から撮影した写真を機械学習を用いて処理し、自由な視点から見られる画像を生成する技術だ。 この技術を用いて出力した画像は、見る視点を変えても、その視点に合わせた新しい画像が連続的に生成されるため、立体感を保ったまま閲覧できる。 この画像を生成するために、MLP(Multilayer perceptron)ニューラルネットワークで学習する。特徴的なのが、機械学習で画像生成を行う際に一般的に用いられるCNN(Co

                                                                  複数写真から自由視点画像を生成 Googleなど「NeRF」開発
                                                                • 対戦ゲームで「弱体化」を意味するネットスラング『ナーフ』はゴム弾丸を飛ばせるおもちゃ『NERF』が語源らしい「これは知らなかった」

                                                                  Ayuha Nakamura/アユハ @ayuha167 対戦ゲームで「弱体化」を意味する nerf は、私の知っている限り、このおもちゃが語源です。 この NERF は大きなゴム弾丸を飛ばせる歴史の長いおもちゃですが、人体事故を起こすたびに弾丸のゴム素材がより柔らかいモノへ変更していったため、「弱体化」の象徴なりました。 twitter.com/zigzagger0902/… 2022-04-02 13:06:38 Ayuha Nakamura/アユハ @ayuha167 nerf に関しては他に: ・NERF社の銃ではなく剣が語源。 ・「前のバージョンではこの武器はホンモノの素材だったのに、アプデ後はNERF社のおもちゃになった」という意味で「弱体化」を指す。 という説があります。ただ、初期のMMO "Ultima Online" と NERF社が関わっていることは確かです。 2022

                                                                    対戦ゲームで「弱体化」を意味するネットスラング『ナーフ』はゴム弾丸を飛ばせるおもちゃ『NERF』が語源らしい「これは知らなかった」
                                                                  • Luma AIで撮影したNeRFデータをUnreal Engineで表示する! - Qiita

                                                                    はじめに Luma Unreal Engine Pluginが公開されました! ということで、さっそくLumaAIのNeRFデータをUnreal Engineで表示してみましょう! 最終的にこのLumaデータが Unreal Engineでこうなります。 前提 LumaAIでの撮影は終わっている まだの方はこちらの記事を参考にしてください! Unreal Engine5.1をインストールしている Unreal Engineの最低限の使い方を把握している 手順 1.サンプルプロジェクトをダウンロード&解凍 公式ページにアクセスし Zipファイルをダウンロードして、解凍します。 2. uprojectをダブルクリック 最初時間がかかります。 3.Luma Fieldファイルをダウンロード 4. Unreal EngineのContent Browserにlumaファイルをドラッグ&ドロップ N

                                                                      Luma AIで撮影したNeRFデータをUnreal Engineで表示する! - Qiita
                                                                    • F2-NeRF

                                                                      1The University of Hong Kong, 2S-Lab, Nanyang Technological University, 3Max Planck Institute for Informatics 4Texas A&M University *Equal contribution This paper presents a novel grid-based NeRF called F2-NeRF (Fast-Free-NeRF) for novel view synthesis, which enables arbitrary input camera trajectories and only costs a few minutes for training. Existing fast grid-based NeRF training frameworks, li

                                                                      • GitHub - google-research/multinerf: A Code Release for Mip-NeRF 360, Ref-NeRF, and RawNeRF

                                                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                          GitHub - google-research/multinerf: A Code Release for Mip-NeRF 360, Ref-NeRF, and RawNeRF
                                                                        • NeRFの概要と 派生系についてのふんわり紹介

                                                                          2021/05/14 に行われたML勉強会(https://sansan.connpass.com/event/211420/) で発表に使った資料です 2020年に発表された「NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis」の紹介と最近の派生系(特に高速化周り)をふんわりと紹介します

                                                                            NeRFの概要と 派生系についてのふんわり紹介
                                                                          • NVIDIA、2D画像から3Dシーンを瞬時に作成する「Instant NeRF」を開発

                                                                            メタバースは、今まさに形になりつつあり、NVIDIAはそこに大きく賭けた。しかし、NVIDIAのようなグラフィックの先駆者にとっても、3D世界のレンダリングは技術的に複雑な課題だ。 NVIDIAは先週開催した人工知能(AI)開発者カンファレンスGraphics Technology Conference(GTC)で、少数の2D画像から3Dシーンを再構築する「インバースレンダリング」の新たな手法を発表した。インバースレンダリングは、AIを利用して現実世界における光の振る舞いを推定する。「NVIDIA Research」チームが開発した手法により、プロセス全体がほぼ瞬時に実行される。 この手法は、多様なユースケースに応用できる。バーチャル世界のアバターやシーンを制作したり、ビデオ会議の参加者やその周囲にあるものを3Dに取り込んだり、3Dデジタルマップ用のシーンを再構築したりするのにも利用可能だ

                                                                              NVIDIA、2D画像から3Dシーンを瞬時に作成する「Instant NeRF」を開発
                                                                            • 【論文読解】NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections - Qiita

                                                                              【論文読解】NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo CollectionsDeepLearning 概要 画像集合をもとに新しい視点からの画像を合成する技術であるNeRF in the Wild(NeRF-W)について紹介します。 例えば、Photo Tourism Datasetには、ある特定のランドマークを様々な位置から撮影した写真が多数含まれています。そのような画像集合から、ランドマークの3次元的な形状を把握し、写真集合には含まれない新しい視点から見たときの合成画像を作成することができる、というのが目的となります。新しい視点からの合成結果をつなぎ合わせると、公式のプロジェクトページ内にあるような動画も生成することができます。 先行手法として、もともと提案されていたNeRF1という手法がありました

                                                                                【論文読解】NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections - Qiita
                                                                              • Postshot Beta - 撮影した動画や写真からNeRFや3D Gaussian Splattingを生成しレンダリング可能なソフトのベータ版が公開!Adobe After Effects上でシーンを読み込むプラグインもあるよ!

                                                                                メイキング 作品-Work Eternal Ascent 3rd place Full Creation B... 2024-03-25 階段登りテンプレチャレンジ『Eternal Ascent』にて3位を獲得した、フランスの3Dアーティスト Alexandre COCHARD氏 (Miche-Miche)が制作プロセスを解説した動画をYoutube上に公開しました。 続きを読む イベント-Event ストーリーアーティストが教える画面演出の技術 - 数多くの短編アニメのストーリー... 2024-03-25 ストーリーボードアーティスト栗田 唯氏によるオンライン講座『ストーリーアーティストが教える画面演出の技術』がCGWORLD Online Tutorialsにて2024年3月29日(金)に開催予定です! 続きを読む

                                                                                • サンフランシスコの街を画像からリアルに3D化 Waymoなど「Block-NeRF」開発【研究開発】

                                                                                  サンフランシスコの街を画像からリアルに3D化 Waymoなど「Block-NeRF」開発【研究開発】 2022年2月28日 米カリフォルニア大学バークレー校、Waymo、Google Researchによる研究チームは、異なる視点で撮影した街並みの写真から、街全体を写実的な3次元シーンとして再構築する手法「Block-NeRF: Scalable Large Scene Neural View Synthesis」を開発した。行われたデモンストレーションでは、280万枚の異なる画像を使ってサンフランシスコのアラモ・スクエア地区のレンダリングに成功し、その有効性を示した。 ▲280万枚の異なる視点の画像から、レンダリングしたサンフランシスコのアラモ・スクエア地区 keyboard_arrow_down 先行研究 keyboard_arrow_down 課題解決 keyboard_arrow_

                                                                                  新着記事