Apple AR Quick Look試した
そろそろ試したいなと思ってやってみた。 結果はこちら
AR Quick Look完全に理解した pic.twitter.com/Nlxibi6Dfb
— 煉獄の女と化した麻木浅葱bot(男) (@asagi_00a3af) 2021年1月21日
実現している機能としては + アニメーション付きUSDZの再生 + Blenderからマテリアルの引継ぎ + Unity Standardマテリアル程度のマテリアル設定の引継ぎ + People occlusion + 自分で確認できたのは手だけ + 実際の部屋の環境マップ + カメラのピント位置に合わせたボケ表現
ARKitでできることは大体できる、って感じですね。今回は確認できてないけど、たぶん光源推定もできるんじゃないかと思います。
やり方
AR Quick Lookを使ったモデルのプレビュー - 日本語ドキュメント - Apple Developer
↑のページの最後にサンプルコードが乗っているので、これをそのまま自分の環境に合わせて書き直して、適当なサーバーにアップ(もしかしたらHTTPSじゃないと動作しないかも)して、お手持ちのiPhoneかiPadで開けば動作が確認できると思います。
所感
AndroidのScene viewerでも言えることですが、単純な「オブジェクトが見たい」という要求に対して、これ以外のアプローチをとる理由が特に思いつきません。
リアルタイムでカスタマイズしたり、ゲームっぽい要素を追加するのであれば何かしらコードを描く必要はあります。