深度
深度予測により、ARDKは現実世界の推定深度マップを返すことができます。 このマップを使えば、アプリケーションはデバイスのカメラから画面上の各ピクセルまでの実際の距離(メートル単位)を推定できます。 この機能には、以下のようなさまざまな使用例があります(ただし、これらに限定されません):
- オクルージョン用のzbufferに深度値を書き込む。
- 深度バッファから3次元位置をフェッチして、オブジェクトをワールドに配置する。
- メッシングシステムの一部としてメッシュを構築する。
- 被写界深度などの視覚効果。
これは深度カメラを使って、近くから遠くへ伝わる「パルス」を作り出す例である:
これは、被写界深度効果を作り出すために深度カメラを使用した例で、ある部分に焦点を合わせ、それ以外の部分をわずかにぼかしている:
変更点
ARDK 3.0がUnityの AR Foundation Occlusion Subsystem (新しいタブで開きます)と統合されました。 XR設定でLightshipが有効になっていると、Lightshipの高度な深度を活用したサブシステムを実装することができます。 開発者としては、標準の AROcclusionManager (opens in new tab)をシーンに配置するだけです。
詳細はこちら
デプスの使い方は、デプス関連のハウツーでご覧いただけます: [
デプス関連のサンプルもご覧ください: