iPad ProのLidarからVRChatへ持っていく、Just Naiken 2LDKの作り方

youtu.be

f:id:o_mega:20201024054742p:plain 

このワールドの作り方について。ワールドを訪問したい人はこちら

ざっくりフロー

用意するもの

iPadPro/iPhone12Proで撮影

最新のiPadProとiPhone12Proには、LIDARと呼ばれる距離カメラ/レーザー測距装置*1がなぜか乗っていて、それでいてOSから支援がありモデルデータが作れるようになっている。

なぜか乗っていてアプリも出ているのでコレを使って、空間をスキャンする。今回自分はスキャンはしてなくて、友人がスキャンしたデータを受け取って使っている。ので詳細は知らないが2LDK物件なら10分程度でできるそうだ。

更にその場でフォトグラメトリ処理が走り出し、モデルの生成がなされるようで、通常のフォトグラメトリフロー*2を知っていると、失敗率の低さ、手軽さは雲泥の差だ

3d Scanner App™

3d Scanner App™

  • Laan Labs
  • ユーティリティ
  • 無料

apps.apple.com

すると、glb形式でモデルデータが出力できるのでPCへ持ってくる

blenderで変換する

blenderでglbをimportする

f:id:o_mega:20201024051601p:plain

すでにそれらしい形状は出来てる上に、1unit 1mで揃っていて感動。普通のフォトグラメトリだと切れがちな廊下もちゃんとつながっている。奥の部屋だけ、やや横に回るように歪んでしまっているのが惜しい*3が、ソレ以外の配置がビタッと決まっているのが異様なまで。床の水平もノイズの凹凸はあるものの、ほぼきっちり水平ができており、誤差は物件全体で3cmぐらいに収まっている。すごい

 

一方で普通のフォトグラメトリも苦手とする、光沢、ガラス系はLIDARでもだめ。奥の部屋にある大きな白い壁も崩壊してしまっている。まあこれは仕方ないだろう。追加で苦手なものとしては太陽があり、ベランダからの景色はこれまた消えてしまったり、謎のノイズ断片が浮いている*4

 

UV Editor画面にすると、image_0画像が取り込まれているので、これをpngとして書き出して置く。モデルの方はfbxでエクスポートする

ついでに確認するなら、マテリアルがデフォルトだとプリンシパルBSDFになってるはずなので、ベースカラーを画像テクスチャに指定し、先のimage_0を選んでやるとソレらしい見た目が確認できる。よしよし

f:id:o_mega:20201024051846p:plain

上のワールドではQuest対応化のために一応の軽量化(デシメート)を掛けた。なにせ取り込んだままだと90万ポリゴンがあったため、30万程度まで下げた。ちゃんとするならリトポ作業をするんだろうけど、ここは手抜き。PC向けなら90万ポリでも対して重くない

テクスチャはだいたい4kサイズが1枚だった。これはアプリの上限らしい。細かくするならセクションごとに撮影して、あとで接合するのが良さそうだ

 

UnityでVRChatのワールドにする

Unityに持ってくる。今回は手抜きするために、SDK2系ワールドとして作った。

SDKを入れ、上でエクスポートしたfbxとpng画像を取り込む。新しいマテリアルを作り、standardシェーダーとし、png画像を割り当て。fbxをシーンに配置して、作ったマテリアルを割り当てる

 

あとは、ワールドとして最低限の体裁を整えたい。

DirectionalLightの色を白色にして角度を調整、No shadowに設定。床コライダーとしてCubeを引き伸ばしたりして配置、スポーン地点のVRC_WorldDescriptorを配置

f:id:o_mega:20201024053754p:plain

 

後は好みに合わせて、

いつものありがたいAssetsを入れてミラーとか置いたり

booth.pm

家具を配置してVRC_Pickupつけてみたり

coquelicotz.booth.pm

ジャンプできるようVRC_PlayerModsを設定したりする

f:id:o_mega:20201024054020p:plain

建物上から透過で見下ろせるのも面白いので、スロープ付けるのも楽しい。

 

家具類はスケールがあってるかどうか確認は必要。ミニマム要件であれば、サイズ別にキューブを並べるとかでも良い

 

おわり

iPad/iPhone LIDARとVR内見

既存のフォトグラメトリと比べると、

  • ぱっと見、解像度は低いけど、
  • めちゃくちゃ手軽
  • 認識失敗によるモデル切断、撮影不足が回避できる
  • 全体での誤差は小さく、測量機器として正確

という感じのようだ。その場でモデルができていくのを確認できるので、帰宅後のモデル生成失敗と向き合わずに済む。長時間の撮影で誤差でじわじわ位置がズレていくというのも少なそう

これと内見がいい感じにマッチしていて、

  1. 10分ぐらいで撮影
  2. 1,2時間作業でVRCワールドとして上げる
  3. 身内でワイワイと内見したり、家具の配置を相談、考えたりできる

これが非常にうけた上に、家具配置シミュレーションをわいわい相談しながらできるのが便利で新鮮だった

 

VRで内見して家具配置をあれこれする、というネタ自体は25年以上前の先代VR元年に考えられていたソリューションなのだけれど、これが誤家庭で、しかも数時間で可能というのはすごい。そして面白い

f:id:o_mega:20201024054756p:plain

こういう断面図的な視点も新鮮

*1:車の自動運転用センサーとして近年盛り上がっているらしい

*2:撮影して家に返ってきてソフトに写真を掛けると、あっ、モデルがつながってない!撮影に欠けがある!というのが分かるやつ

*3:おそらく玄関付近でねじれた

*4:アーティファクト、ちゃんとやるならこの辺は手作業で削除したい