サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
GPT-4o
izm-11.hatenablog.com
概要 RICOHのTHETA Sは1920 x 960 30FPS(29.97)のEquirectangular形式のmp4動画を作ることが出来ます。素晴らしい! しかし、この動画をHMDやパノラマビューアーで見てみると、「動画の解像度やビットレートがもっと高かったらなあ」と思うときもあります。 そこで、今年話題になった良い感じの超解像ソフトであるwaifu 2x を使って、擬似的に4k動画を生成してみようという試みです。 結論から言うと、多少時間は掛かりますが思った以上の効果を発揮するので、お気に入りのTHETAで撮った動画はアップスケーリング版を作りたくなりそうです。 作り方 waifu2x-caffeが 2015/7のバージョンから実写にも対応しました(すごい) 機械学習を利用した画像の高品質拡大ツール「waifu2x-caffe」が実写にも対応 http://www.forest.
この記事に技術的な要素はありません。 この記事はOculus Rift Advent Calendar 2015 の2日目です。 qiita.com 1日目は @itachin さんのGearVR Coolerの話でした。 Gear VR Cooler! - VRの犬 OculusRiftとの出会い 2013年4月:DK1発売 2013年7月 ツイッター経由で親切な人にOculusRiftを見せてもらう 火曜日の夕方秋葉原にいるのですが、アワレな僕にOculusRiftを見せて貰える機会はどこかに無いものでしょうか!!!— 絵麻さんを養って幸せな家庭を築く (@izm) 2013, 7月 19 秋葉原でOculus Riftを体験したい方は居ますか? 7/23(火)19時からを予定しています。— waffle_maker@忘年謝肉祭 (@waffle_maker) 2013, 7月 19
1.概要 前回のまとめ以降、ようやく触る時間と機材が出来たのでUnity上でTHETA SのHDMI Liveviewを追試しました。 イメージとしては凹みさんの tips.hecomi.com です。 THETA Sの取得できる画像、動画フォーマット一覧 HDMIキャプチャ方式のハードウェア紹介 Unity上でのHDMIキャプチャ経由の動画読み込み方法 Unity上での Dual Fish Eye → Equirectangular変換 みたいな内容です。 2.THETA Sの取得できる画像、動画フォーマット一覧 こんなイメージです。 今回はHDMI Dual FishEyeを使います。 非リアルタイム 静止画 5376 x 2688 Equirectangular 動画 1920 x960 Equirectangular リアルタイム Dual Fish Eye (HDMI 1920
概要 ついに念願の動画も取得できる安価で安心な全球カメラが出ました! TL上ではハックが進んで有益情報も多いですが、twitter上の内容で散逸してしまうと勿体ないので、メモとして記載します。 Unity上で見る方法 tips.hecomi.com Theta Shader Pack をリリースしました。Unity 向けの THETA / THETA S の全天周画像をリアルタイムに Equirectanguler に変換するシェーダーと、それらの補助スクリプト一式です。http://t.co/mmrKXr6MH0— Nora (@Stereoarts) 2015, 9月 26 ThetaSのストリーミングをUnityVRサポート使ってOculusRiftDK2で見る方法 1.ThetaSのサイドのカメラ/動画ボタンを押しながら電源入れる 2.usbつなぐ 3. 「Ricoh Theta
概要 OculusRift CV1(コンシューマ向け)の発表も近づいてきたので、OculusVR社は自社OculusSDKやOculusRuntimeを積極的にアップデートしています。 また、最新版の各種ゲームエンジンでは組み込みでOculusRift対応を進めています。(UE4は前から、Unityは5.1から) そんなタイミングですが、最新のOculusSDK0.7以降では動作未保証になってしまったOptimusノートPC+Unity5.1でOculusRiftDK2の動作環境を作ってみようと思います。 色々検討した結果、今回はExtendModeなら最低でも動きそうな0.5.0.1環境にします。 非プログラマ向けの手順をこれから書いていくので、分かる人は読み飛ばして「最後にまとめ」だけ読んで頂ければと思います。 (主婦ゆに本の、Unity5対応版も購入者は手に入れられるはずなので、ご検
この記事は、調べものをした途中の過程を記録する物で、成果物がある訳ではありません。 概要 Unity上での動画再生は、歴史的な経緯によりデスクトップ版ではQuickTime Playerを用いた再生を行っています。 つまり、大雑把に言うと*.movファイルをムービーテクスチャとして使用できます。 しかしQuickTime Playerはイマドキの主流であるGPUデコードには消極的で、CPUデコードを行っています(調査不足の可能性有り、何らかの最適なエンコードを行えば可能?) その為、例えば4k2kの60FPS動画を再生すると、いまどきのCPUが1コアフル占有してコマが落ちる、と言う状況です。 多くの場合は、動画解像度を下げたり、30FPSにすることで対処出来ますが、例えばOculusRift DK2(75Hz)で全周動画を再生する、と言うシチュエーションでは、非常に困ります。 これを何とか
概要 Oculus VR社とSamusung社の協業によって、Gear VRと言うOculus社の品質を満たす高性能なスマホスロットインHMDシステムが発売されています。 最近は日本のキャリアでも該当機種を扱う(Galaxy s6シリーズ)為、国内での入手性も良いです。 この Gear VR向けコンテンツを、実写パノラマ動画で作っています。そのまま流すだけならmediaplayerで行けますが、選択肢で分岐したりループ制御やエフェクトがあるコンテンツを作る場合はUnity等のゲームエンジンを用いるのが良いと思います。 参考までに、このエントリでは僕が今お手伝いしているチーム(コンテンツ)のワークフローについて説明します。今後同じような事をする方の参考になれば嬉しいです。 環境 GoPro 6台マウント Autopano Video Pro VFX(After Effects,Nuke) U
概要 Unity5から新たに加わったライセンス体系である、Unity5Personalライセンスは、従来のUnity4Pro相当の機能を無料で使うことが出来ます。 その為OculusRift DK2を用いたVRコンテンツも従来よりお手軽に作れるようになりました。 しかし現時点のOculusRift用SDK(以下OVRSDKと書きます)最新版であるOVRSDK0.4.4(Unity Integration)はUnity4.xとUnity5beta向けに開発されていた物で、Unity5正式版で使う時にライブラリのコードを修正する必要があります。 参考リンク: qiita.com このエントリでは、こういった修正をしなくても快適に動く環境を作成する手順を説明します。 環境 Windows8.1 Unity5.0.0f4 personal OVRSDK0.4.4 + OvrMobileSDK0.4
概要 せっかくRaspberry pi2も出て、モノノインターネットだとかフィジカルコンピューティングだとかユビキタス(これは死語?)も流行っているので、GPIO経由でセンサやサーボを使うプログラムを書きたいな、と思いました。 その際にPythonを使い、開発環境としてJetBrains社のPython IDEであるPyCharmを使って、普段使っているPCからリモート開発環境を作ってみました。 CUIモードのRaspberry pi2上で素のviで書くのもカッコイイとは思うのですが、入力補完等が親切な方が個人的には嬉しいです。 このエントリはその備忘録です。 多少覚えることはありますが、初心者がいきなりPythonをRaspberry pi上で書き始める、と言うのであればPyCharmは親切な環境であると思います。 他にもCPUが非力なLinuxが載る組み込み系ボード(BBB,Odroi
概要 OculusRift DK2+UnityでOVRSDK0.4.4を使う時に、ビルド及び実行条件次第でジャダー(首を振った時に絵がガクガクする、凄く酔います)が起きる事がknown issueとなっています。 https://forums.oculus.com/viewtopic.php?f=37&t=18363 しかし、OVRSDK0.4.4+OculusRuntime0.4.4は現状では最もVRパフォーマンスが出る組み合わせでもあります(FPSが稼ぎやすい、遅延が短い) よってこのエントリでは、VRコンテンツ製作者が上記環境で作る時に、どんなオプションでビルドすれば良いか、僕の調査結果を書きます。 先に結論 UnityEditorはDX9モードでもDX11モードでも良いので、BuildSettings→PlayerSettings→Other Settings→Use Direct
このエントリはOculus Rift Advent Calendar 2014の12/14のエントリです。 Oculus Rift Advent Calendar 2014 - Qiita 明日12/15は @xxxxMakoto さんです! 概要 去る2014/9 にOculusVR社の主導で行われたOculusConnectと言うイベントで、いくつかの講演がありました。 その中でも、OculusSDKが何を目指して、何を実装して、将来はどんな機能を追加していくかと言う、一番ヘビーな(個人的には重要そうな)Mastering the Oculus SDKと言うプレゼンテーションがありました。 http://static.oculus.com/connect/slides/OculusConnect_Mastering_the_SDK.pdf このエントリでは、上記講演の公開されているプレ
概要 OvrvisionSDK2.1が公開され、OculusRift DK2が高視野角ビデオシースルーHMDとして使えるようになりました。 OvrvisionSDKにはAR機能があり、Arucoのマーカを用いたマーカARが実装されています。 しかし、マーカ無しでARを使えたら、ちょっと楽しいかもと思い、大急ぎで試しに作ってみました。 まだやりたい事が実現できていないので、また進捗があったら別の記事を書こうと思います。 作り方 OvrvisionSDK+OVRSDKを組み合わせます。以下のような処理を行います。 OvrvisionSDKのAR関係を無効化する 現実の絵をOvrvisionSDKで持ってくる OVRSDKのOVRCameraRigのポジトラを有効にして、CG座標系上のある絶対座標にCGを置く つまり、普通のOculusRift DK2のコンテンツの作り方にして、背景だけをOvr
概要 OculusRift DK2が発売され、多くの人の手元に届いています。 これからOculusコンテンツを作ろう!と思ったときにSDKバージョンが幾つもあって、お勧めPCも色々あって、どれを選べば良いのかみたいな目安があると、便利かなと思い、調べてみました。 僕の思い込み等が入っている可能性もあるので、ツッコミや質問等、お気付きの点がありましたらtwitter https://twitter.com/izm に連絡いただけると嬉しいです。そしてMacは詳しくないので、Windows限定です。(Radeonも詳しくないんで教えてください) デモ、開発用PC別のインストールすべきSDKバージョン Unityの設定 どのくらい"VRとして"パフォーマンスが出ているかの確認 と言う内容です。 まず、OculusRift DK2自体のセットアップやファームウェアアップデート等については Ocul
概要 VR環境での視覚、聴覚だけではなく、他の感覚もユーザに呈示すると没入感が高まる事が広く知られています。 たとえばOculusRiftでジェットコースター系のデモをするときに扇風機を使うと怖さが増える等です。 今回僕は乗り物(ロボット)に乗るVRシステムを作成し、その過程で振動ユニットを使いました。体験者からのヒアリングで、結構いい感じだったと言われたので使い方を少し書きます。 .@izm さんの めかしむ☆凄かったです。こういうスティックとフットペダルで、さぞかしロボ操縦感あるだろうな…っと予想はしていましたが、まさか1番ロボを感じる要素がケツに仕込まれていたとは…。椅子裏の振動による臨場感凄い。 https://t.co/gHJD7mJNLc— 栗坂こなべ@関西ゲーム制作部(仮)部長 (@kurisaka_konabe) 2014, 10月 12 振動ユニットとは 太鼓やバスドラム
概要 先日、OculusRift向けのストーリー仕立ての全周囲映像を体験する機会がありました。 「OS☆U」があなただけに超絶接近!? http://vr-360.net/osu/ これは多人数アイドルグループが自分に向かって自己紹介というか、お喋りを小芝居をしながら行う、というもので、言うならば映像のバイノーラル録音みたいなものです。 この手の実写360度映像は、少し前だとプロ用機材で3桁万円から、という感じだったのが最近GoProをサイコロ状に6台マウントする( http://freedom360.us/ )、と言う価格破壊ソリューションが登場しました。また、タイミング良くOculusRiftと言う没入感が高く安価なHMDも出たことで、今年に入って結構色々な人が作っています。 例えばバイクや、サーフィンなど、普段一人称視点では中々体験することが無い事を、(首を振ったら対応した絵が出てく
世の中にUnity情報が山ほどあって、素晴らしいです。 分からない事があっても、ググるだけでピンポイントなブログの記事やstack overflowが出てきたりします。素晴らしい。 ただ、技術に対する体系だった学習に技術書を読むのは、とても良いと思うので、読んだことある本を難しさ順に並べてみます。 ここに出ていない本は読んでいないか、読んでオススメしかねる本だったので、お勧め本があれば教えてください。 2016年版を書きました izm-11.hatenablog.com Unityって何?レベル まずは本を買うより先にドットインストールのUnity講座を見ましょう。 お金を払って本を買うのはその後で良いのです。 http://dotinstall.com/lessons/basic_unity 個人的には、最初から本を買って「お金払ったんだし、やるか…」と言う気持ちにするメソッドを良く使う
概要 エンジニアに限らず、現代の暮らしはドラム式洗濯機や高価なスマートフォン、PCなどを使用することが多いです。 そしてそれらはメーカー保証が1年で、それを越える延長保証は各社様々なサービスがあり、選択肢もいろいろあります。(メーカー独自の延長保証、家電量販店の延長保証、クレジットカード付帯の動産保険など) 最近それらを調べて、個人的にオススメ(つまり、おそらく保険料に対して修理の期待値的に得しそうなもの)が幾つかあったので紹介をします。 忙しい人向けに結論を書くと以下です。 ドラム式洗濯機を使っているなら→くらしTEPCOの住設・家電修理サービス https://www.service.tepco.co.jp/s/Warranty_set/ 10万円以上のスマートフォンを買うなら→スマホケ https://sumahoke.jp/ くらしTEPCOの住設・家電修理サービス 東京電力が提供
概要 そういえばOculus使ったゲームとか作る時に、75FPSを確保するために、まあ色々グニャグニャとチューニングをする過程の情報があまり無い気がするので、メモ代わりに我流の方法を書いておきます。 前提 比較的広いマップを持ち、何もしないとDrawCallは1000以上ある感じのコンテンツ Occlusion Cullingと固定物のstatic化はしている いわゆる、ゲーム用GPUがあって、他のコンテンツで75FPSは出ている環境 毎フレームDebug.Logを呼ぶような恐ろしい無駄は削除済み 作業 1.最初に、パフォーマンスチューニングの余地があるか調べるために、QualityをBeautiful→Good→Fastと切り替えて、FPSとDrawcallがちゃんと増減するか調べる。 2.Unity Profilerを起動してボトルネックを調べる 後はこういう高速化を計測するUnity
豆知識集です。 鉄騎コントローラをPCで使う XBOX用のコントローラは、コネクタ形状こそ異なる物の、中身の信号はUSBそのものなので、コントローラの先端を切って、USBコネクタをはんだ付けすれば使えます。 貴重な鉄騎コントローラに手を入れたく無い場合は、 Amazon.co.jp: Xbox用コントローラー延長ケーブル ( 初代XBOXで使用可能 ): ゲーム こういった延長ケーブルを購入し、こちらを改造すれば大丈夫です。 参考URL nWorld: PCでXBOXのコントローラーを使う また、PC用のデバイスドライバは幾つか種類がありますが、DirectInput用の物より、 SteelBattalion.NETの方が最近のOSでは安定して動くようです。 Win8.1Pro(x64)で動作確認済みです。 dmanning23/SteelBattalion.NET · GitHub これ
去る9/14(日) Ocufes名古屋 http://ocufesnagoya.jimdo.com/ に表題の物を作って展示してきました。 このエントリは備忘録と技術要素が半々くらいです 製作動機 お世話になっているフィーバー柳橋 https://ja-jp.facebook.com/fever.yanagibashi のオーナーさんが、中古で鉄騎コントローラを入手したと連絡があり、僕自身もロボット物が好きなので、鉄騎リスペクトなコンテンツを作ろうと言うのが最初の取っ掛かりです。 コンテンツ設計指針 酔わない、没入感がある。と言うのを意識して設計しました。 VR酔い対策 例えば高速で飛び回るアーマードコア系のゲームをゲームパッド+OculusRiftでプレイすると、大体酔うことが先行研究から明らかになっています。また、乗り物に乗って移動する系のコンテンツはVR酔いを起こしやすい傾向がありま
概要 OculusSDK0.4x系のUnityでの見え方を確認するデバッグ、ビルドして起動するくらいしか出来ないでしょうか?普通にエディタ内のゲームビューを全画面でセカンドスクリーンに表示とか出来ないかなあと思ってしまうのですorz ちゃんとドキュメント見たら書いてあるかしら?— izm (@izm) August 13, 2014 OculusRift DK2を使ったコンテンツをUnityで作っているとき、「拡張ディスプレイ扱いのDK2側に、今のシーンを全画面表示したい」 ことが良くあります。 そんな感じの事を行うUnityのエディタ拡張スクリプトを先人が書いていた(DK1用)ので、それをアップデートしました。 GameViewをフローティングにして、右側のRift画面に持っていって、頑張って右上の最大化ボタンをマウスで押す、と言うのが辛すぎたのが製作動機です。 個人的にはDK2をUni
概要 ユーザの腕の動きや指の動きを取得したい事はとてもよくあるシチュエーションで、それを安価に済ませるには幾つかのデバイスの選択肢があります。 それらデバイスの腕や指のトラッキングの面から見た場合の使い分けについて、個人的にメモを兼ねて書きます。 VRHMDを被ったユーザが、例えば椅子に座ってドライブシミュレータみたいなソフトウェアを体験 することを想定しています。 DepthSense DS325は実質的にIntel Creative* Interactive Gesture Camera Developer Kit( http://click.intel.com/creative-interactive-gesture-camera-developer-kit.html )が上位互換と言うかOEMなので、1個に纏めました。 Kinect v1 人に正対した数m離れた手前に設置。HMDマ
大急ぎで書いているので乱筆乱文ですが。 OculusRift DK1とOVRVISIONを組み合わせてそのままビデオシースルーHMDとして見た場合、自分の視界がトイカメラエフェクトかかったように見える(そして、それ以外の「視界の違和感」がほとんどない!!) と言う体験をしました。 これは非常に楽しいオモチャです。迷っている人は是非購入をお勧めします。 OVRVISIONについて現時点の良いところ、悪いところを書きます。 近いうちにSDK及び関連ドキュメントのアップデートが行われるので、現時点の暫定の感想です。 良いところ 従来100万円以上から、と言うビデオシースルー広視野角HMDがセットで数万円 サンプルのovr_ar_objviewや、 https://twitter.com/Wizapply/status/441547434166988800 で挙げられた唐揚げの重畳表示は、非常に「
滅茶苦茶オススメなので布教エントリ書きます。 SF映画で学ぶインタフェースデザイン アイデアと想像力を鍛え上げるための141のレッスン 作者: Nathan Shedroff,Christopher Noessel,安藤幸央,赤羽太郎,飯塚重善,飯尾淳出版社/メーカー: 丸善出版発売日: 2014/07/24メディア: 単行本(ソフトカバー)この商品を含むブログ (7件) を見る どんな本か インタフェースはこの100年程の間に色々進化してて、その歴史を知る本みたいなのは、いっぱいあります。 そこから演繹的に未来のインタフェースを考えたりするのは凄く楽しいものです。 この本は、それぞれのインタフェースが「SF映画で」どの様に表現されて「現実に」実現したか、みたいな差分も一緒にインプット出来ます。 そうすると、上記のように現実の歴史から演繹するより、ズルが出来ます。つまり「未来を描いたSFの
Unityで広い街を走り回りたい Unityを触り始めたころは、そんな風に思って、ドットインストールさんや、Youtubeに上がってるscreencastを見て勉強して記憶があります。 また、日本語の解説記事だと じくよろブログさんのMMD for Unityでミクさんとケロリン町を周るお話 http://eral.blog.eonet.jp/default/2013/10/mmd-for-unity-1-a42b.html にとてもお世話になりました。 ところで先週の土日にUnityちゃんゲームジャムと言うのがあって、そこで初心者の人に伺ったところ、日本語の本は多く出ていて、動画もドットインストールがあるけど、動画の方が凡ミスに気づけるので、良いとのことでした。 step by stepのチュートリアル 英語を聞き取るのが大変なので日本語 の解説動画があったら良いのかな。と思い、試しに録
概要 OculusRiftとOvrvisionとLeapMotionとARマーカーを使って、現実世界のマーカーの上にミクさんが出てきて、指で触ったりマーカーを傾けるとミクさんが反応してくれると言うデモを作り、6/1Ocufes豊橋で展示してきました。 これは、はるか昔に東京芸者エンターテイメントさんが作った電脳フィギュアARis( http://www.geishatokyo.com/jp/ar-figure/ )をもし現代の技術で作るなら、と言うのがコンセプトだったので勝手ながらお名前を拝借しました。 webカメラでマーカーARと言うのは若干手垢がついている感じもありますが、高視野角のHMDで、指のトラッキングによるインタラクションを行えるというのが、意外と面白いのではないかと感じました。 システム構成 OculusRift DK1 Ovrvision LeapMotion Oculus
概要 完全にこれはバッドノウハウと言うか、相性問題なので僕がハマったこと、解決策を書くことで他の誰か(含む未来の僕)が回避できればそれで良いつもりの、雑なエントリです。 環境 Windows 8.1(64bit) Unity 4.3.4f(Pro) OvrvisionSDK v0.6 LeapSDK v2(beta)LeapMotionSkeletalAssets-0d307adfc4e34b9c828e42c01c7c79b0.unitypackage 症状 OvrvisionSDKを含んだプロジェクトに、LeapSDKのunitypackageを追加して、Unityを一度終了して再度開きデバッグ実行すると、Ovrvision系のスクリプトからdllNoFoundExceptionエラーが起きてしまう。 これは最小構成でも再現した。 [未検証注意]僕の環境でUnityPro4.3.4+O
概要 ゴールデンウイークに仕事と一切関係ないタイトルの通りの環境でちょっとしたデモを作っていた。 その過程で豆知識的な物がいくつか有ったので忘れないようにメモ。qiitaでも良いのかもしれないけど、あそこに書けるほど大した話でもないです。 環境 Windows 8.1(x64) Unity4.3.4f Pro OculusRift devkit 1 SDK0.25 Ovrvision SDK v0.6 MMD4Mecanim_Beta_20140430_3 Unity シーンの使いまわしをしたい File→Save Scene asで別名保存をポコチャカ作れば良い。 負荷が重い関数を見つけたい ctrl+7のprofiler→deep profileで関数単位くらいまで分解出来るのでボトルネックが見つけられる。 設定ファイルの保存先 Application.streamingAssetsP
概要 Unityのアプリを作っていて音声認識を含むデモをしたい。 インターネットが繋がらないかもしれないのでスタンドアロンで動作してほしい。 簡単なのが良い というような時に、Intel Perceptual Computing SDK http://software.intel.com/en-us/vcsource/tools/perceptual-computing-sdk (今後はSenz3D SDKと呼ばれるかも?)と、適当なマイク を使うことで、音声認識を組み込めることを確認したので、手順を残します。 ジェスチャ認識用と言うイメージが強いこのSDKですが、音声認識用途でも、割と優秀。 動作環境 Windows 8.1 (64bit) Unity Pro 4.2.0f Intel® Perceptual Computing SDK 2013 GOLD(version 12492)
次のページ
このページを最初にブックマークしてみませんか?
『izm_11's blog』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く