Apple AR Quick Look試した

そろそろ試したいなと思ってやってみた。 結果はこちら

実現している機能としては + アニメーション付きUSDZの再生 + Blenderからマテリアルの引継ぎ + Unity Standardマテリアル程度のマテリアル設定の引継ぎ + People occlusion + 自分で確認できたのは手だけ + 実際の部屋の環境マップ + カメラのピント位置に合わせたボケ表現

ARKitでできることは大体できる、って感じですね。今回は確認できてないけど、たぶん光源推定もできるんじゃないかと思います。


やり方

AR Quick Lookを使ったモデルのプレビュー - 日本語ドキュメント - Apple Developer

↑のページの最後にサンプルコードが乗っているので、これをそのまま自分の環境に合わせて書き直して、適当なサーバーにアップ(もしかしたらHTTPSじゃないと動作しないかも)して、お手持ちのiPhoneiPadで開けば動作が確認できると思います。

所感

AndroidのScene viewerでも言えることですが、単純な「オブジェクトが見たい」という要求に対して、これ以外のアプローチをとる理由が特に思いつきません。

リアルタイムでカスタマイズしたり、ゲームっぽい要素を追加するのであれば何かしらコードを描く必要はあります。