■「アニメーションの定義とは?」先日、ある方と話していて出た話題。 「アニメーションの定義とは?」 アニメーションは何を持ってアニメーションとするのかという話です。 「アニメーション」と「アニメ」の違いとかでなく、もっと広い“アニメーション”全体の話になります。 僕は日頃、アニメーションについていろいろ書いているのですが、そもそも“アニメーション”が何であるか自身のなかで定義づけしてなければ、そうした言葉も空虚と批判されても仕方ありません。 そこで「アニメーションは何を持ってアニメーションとするのか」を考えてみました。 しかし、これが意外に難しい。 1970年代、80年代であれば、定義はより簡単でした。 おそらくは、こんな感じです。 「アニメーションは人の手によって作られた対象物をひとコマずつ撮影し、フィルム上映した時に動きのある映像となる手法」 こうした定義では、一枚ずつ手で描いたセル画
スマホゲーム公式が3Dモデル無償配布、利用規約なくユーザー困惑 「勝利の女神:NIKKE」の施策が話題 中国Tencent Gamesは4月13日、同社のゲーム部門「Level Infinite」が提供するスマートフォンゲーム「勝利の女神:NIKKE」(ニケ)の公式3Dモデルを配布した。日本向けを含む公式サイトでゲームキャラ5人のMMDモデルを公開している。ただし利用規約やガイドラインの類が存在せず、SNS上ではどう使っていいか困惑する声が見られる。 勝利の女神:NIKKEは2022年11月にリリース。iOS/Android/Windows向けのシューティングゲームで、日本や韓国向けに提供している。女性型の人造人間・改造人間「ニケ」を従えて敵と戦うという内容だ。戦うキャラクターの後ろ姿を見ながらプレイする独特のUIがリリース前から注目を集めており、事前登録者数は世界で250万以上という。
プロンプトを入力するだけで適切なモデルを出力してくれるBlenderのアドオン「BlenderGPT」が登場しました。OpenAIのGPT-4を使用しており、プロンプトを受けてPythonコードを生成します。 GitHub - gd3kr/BlenderGPT: Use commands in English to control Blender with OpenAI's GPT-4 https://github.com/gd3kr/BlenderGPT 導入方法は以下の動画でも確認できます。 3DCG製作ソフト「Blender」にGPT-4を統合する「BlenderGPT」の導入方法を解説 - YouTube まずはGitHubのリポジトリにアクセスします。続いて「Code」をクリックし、「Download ZIP」をクリックしてZIPファイルをダウンロード。 次にOpenAIのAPI
CGWORLD編集部 (以下CGW):簡単に自己紹介をお願い致します。 コースケ:漫画「GANGSTA.」を描いているコースケと申します。 数年前に全身性エリテマトーデス(SLE)という難病の合併症で片目失明、内臓疾患、手足の麻痺などになりました。普通の人のようには働けないので、現在はイラストの仕事を頂きつつ、体調のいい時にだけ漫画の執筆をしています。(仕事のご依頼お待ちしております!笑) ※全身性エリテマトーデス(SLE)について CGW:片目を失明されて以降たくさんの苦労があったと存じますが、お仕事にどのような支障がありましたか? コースケ:私の場合、キャラクターの顔や頭身のバランスがわからなくなってしまった事が何より困りました。以前と同じように描いている筈が、いざ完成してみるとバランスがおかしい。小さな作画ミスに気づきにくい。そんな状態で描いては消し・描いては直しで、小一時間で出来て
演者の顔を3DCG化するフェイシャルキャプチャはゲーム業界などで広く使われていますが、特殊なハードウェアが必要だったり、コンピューター処理とアーティストの手作業による微調整を要したりするため、小規模なスタジオがこれを行うのは簡単なことではありません。このような労力と時間のかかるワークフローに革命をもたらす新ツール「MetaHuman Animator」をEpic Gamesが新たに開発し、デモ映像を公開しました。 MetaHuman に対して高忠実度パフォーマンス キャプチャを簡単に適用できる新しい MetaHuman Animator 機能セット - Unreal Engine https://www.unrealengine.com/ja/blog/new-metahuman-animator-feature-set-to-bring-easy-high-fidelity-perfor
Android 用の Scaniverse - 3D Scanner 発行者 Toolbox AI に 2023-09-14 ライセンス: フリーウェア | 言語: 日本語 | 現在のバージョン: 2.1.8 | ファイルサイズ: 26.16 MB ダウンロード リンク 1. Scan the world in 3D with Scaniverse, a new 3D scanning app that uses LiDAR to build 3D models with a high level of fidelity. 2. Scaniverse captures scenes in stunning detail, allowing you to build highly accurate models of objects, rooms, and even whole buildi
山下 裕毅 先端テクノロジーの研究を論文ベースで記事にするWebメディア「Seamless/シームレス」を運営。最新の研究情報をX(@shiropen2)にて更新中。 Google Researchの研究チームが発表した論文「Novel View Synthesis with Diffusion Models」は、わずか1枚の2次元画像から3次元オブジェクトを自動生成する拡散モデルを用いたフレームワークを提案した研究報告だ。画像から3次元的に一貫性のある複数の新規ビューを生成する。 ▲左の1枚の入力画像が与えられると、提案フレームワークは入力画像に応じた3Dオブジェクト(右の4つのビュー)を生成する keyboard_arrow_down 研究課題 keyboard_arrow_down 研究内容 keyboard_arrow_down 研究評価 2020年に発表された拡散モデル(Deno
九州大学は現在、3DモデルプラットフォームのSketchfabにて水生生物や昆虫、植物など1400点700種以上の3Dモデルの無料公開を行っている。 世界に先駆けてリアルな「3Dデジタル生物標本」を1400点以上公開 | 研究成果 | 九州大学(KYUSHU UNIVERSITY) https://t.co/3ypPFWLhC6 pic.twitter.com/k736Y4zeEQ — ffish.asia & floraZia.com (@ffishasia) August 26, 2022 今回公開された3Dモデルは、被写体を様々な角度から複数撮影することで3Dモデルを構築するフォトグラメトリという手法によって作成されたもの。 九州大学持続可能な社会のための決断科学センターの鹿野雄一特任准教授は、世界に先駆けて、独自かつシンプルなフォトグラメトリの手法を開発し、「バイオフォトグラメトリ
はじめての方ですか? オンライン授業体験版は、上の「start」ボタンを押すことで、自動でログインできるようになっています。 (実際のオンライン授業は学生番号でログインします) 一度ログアウトすると、次は別のユーザとしてログインするため、それまでにご自分が体験した学習履歴の確認ができなくなります。学習履歴の確認はログアウトするまでに確認いただきますようお願いします。(体験された学習履歴はその日の夜にクリアされます。あらかじめご了承ください。)
Unreal Engineフォトリアルなビジュアルと没入的体験を作り出す世界で最も高度なリアルタイム 3D 制作ツールです。 Unreal Engine 5機能紹介最新機能ライセンス オプションUnreal Editor for Fortniteその他の製品MetaHuman高忠実度のデジタルヒューマンを短時間で作成できるフレームワークです。 Twinmotionリアルタイム没入 3D ビジュアライゼーションを高速に、簡単に制作します。 Bridge by QuixelMegascans と 3D コンテンツ世界へのゲートウェイです。 RealityScan写真を高精細な3Dモデルに変換する3Dスキャンアプリです。
2022/06/07 『機動戦士ガンダム ククルス・ドアンの島』 モビルスーツをキャラクターとして魅せるYAMATOWORKSのCG演技力 映画 アニメ 6月3日(金)より公開されているアニメ『機動戦士ガンダム ククルス・ドアンの島』。言わずと知れた『機動戦士ガンダム』のキャラクターデザイナー、アニメーションディレクターであり、近年も『機動戦士ガンダム THE ORIGIN』で総監督を務めた安彦良和氏が、TVシリーズのなかで特別な位置づけの一編を劇場長編作品としてつくり上げた。そんな本作において3DCGによるモビルスーツのアニメーションを担当したのはYAMATOWORKS。彼らのもつ従来からの3DCGによるキャラクターアニメーション哲学が安彦監督の映像づくりの方針に合致し、ドラマ性と爽快感を両立させた見応えのある映像に仕上がった。その演出手法やアニメーションづくりの工夫について、同社の代表
Google、写真からフォトリアルな3Dモデルを生成する「PHORHUM」を発表 Googleは、服を着た人間の写真からフォトリアルな3Dモデルを生成する「PHORHUM」を発表しました。 「PHORHUM」は、服を着た人間のRGB画像から、3次元の形状と外観をフォトリアリスティックに再現するための、エンドツーエンドの訓練可能なディープニューラルネットワーク手法。見える範囲は正確に再現しつつ、見えない部分は推定を行って「それらしい」再現を行います。 「PHORHUM」について、Googleの論文では、「私たちのモデル構築は衣服のバーチャル試着や写真のイマーシブな視覚化、コミュニケーションの向上、人間とコンピューターの対話またはゲームなどに向けたパーソナルARおよびVRで可能になるであろう、変革的な、没入型3Dアプリケーションの幅広さに動機づけられています」と述べています。 (参考)Goog
米Teslaが2021年8月に開発を表明した二足歩行ロボット「Tesla Bot」。ロボットの格好をしたダンサーがパフォーマンスを披露した発表会以来、まだ実物は公開されていないが、4月2日に投稿されたとある動画が広く拡散した。「Tesla botを試すことができて興奮しています」と書かれたそのツイートには、女性に向かって歩いてくるTesla Botの姿が映し出されている。 投稿したのは、テック・ライフスタイル系YouTuberのShelby Churchさん。Tesla Botは、スムーズに歩行しながら、周囲を見回したり、手を振ったりとロボットっぽさはありつつも、人間のような振る舞いを見せる。 動画には、9000近くのリツイート、3万を超えるいいねが集まった。コメントには、「テスラのロボットすごい」「ペプシマンっぽい」といった声以上に、「怖い」「夜に出会いたくない」などの意見が多く見られた
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く