深度
深度予測により、ARDKは現実世界の推定深度マップを返すことができます。 このマップを使えば、アプリケーションはデバイスのカメラから画面上の各ピクセルま での実際の距離(メートル単位)を推定できます。 この機能には、以下のようなさまざまな使用例があります(ただし、これらに限定されません):
- オクルージョン用のzbufferに深度値を書き込む。
- 深度バッファから3次元位置をフェッチして、オブジェクトをワールドに配置する。
- メッシングシステムの一部としてメッシュを構築する。
- 被写界深度などの視覚効果。
これは深度カメラを使って、近くから遠くへ伝わる「パルス」を作り出す例である:
これは、被写界深度効果を作り出すために深度カメラを使用した例で、ある部分に焦点を合わせ、それ以外の部分をわずかにぼかしている:
変更点
ARDK 3.0がUnityの AR Foundation Occlusion Subsystem (新しいタブで開きます)と統合されました。 XR設定でLightshipが有効になっていると、Lightshipの高度な深度を活用したサブシステムを実装することができます。 開発者としては、標準の AROcclusionManager (opens in new tab)をシーンに配置するだけです。
詳細はこちら
デプスの使い方は、デプス関連のハウツーでご覧いただけます: [
デプス関連のサンプルもご覧ください: