クラス


ARFaceTrackingConfiguration


フロントカメラを使用して顔の動きと表情を追跡する構成。





宣言


class ARFaceTrackingConfiguration : ARConfiguration



概観


顔追跡の構成は、デバイスのフロントカメラから 3 メートル以内の顔を検出します。ARKit は顔を検出すると、人の顔の位置、向き、トポロジー、および表情に関する情報を提供する ARFaceAnchor (ARFaceAnchor) オブジェクトを作成します。


顔追跡は、iOS 14 および iPadOS 14 の AppleNeural Engine を搭載したデバイスをサポートし、iOS 13 および iPadOS 13 以前の TrueDepth カメラを搭載したデバイスを必要とします。デバイスが顔追跡をサポートしているかどうかを判断するには、この構成を使用する前に、ARFaceTrackingConfigurationisSupported を呼び出して下さい。


isLightEstimationEnabled 設定を有効にすると、顔追跡構成は、検出された顔をライトプローブとして参照することにより、指向性および環境照明 (ARDirectionalLightEstimate オブジェクト) を推定します。

注意

顔追跡はあなたのアプリに個人の顔情報を提供するため、アプリには、顔追跡と顔データの使用方法をユーザに説明するプライバシーポリシーを含めなければなりません。詳細については、Apple デベロッパ向けの契約およびガイドライン を参照してください。


トピックス




構成の作成





ワールド追跡の有効化




複数の顔を追跡


関連




以下からの継承


ARConfiguration



以下も見よ




体と顔の追跡




目次
Xcode の新機能

利用可能

iOS 11.0+
iPadOS 11.0+
Mac Catalyst 13.1+

フレームワーク

ARKit


このページには

  • 宣言
  • 概観
  • トピックス
  • 関連
  • 以下も見よ












  • トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ












    トップへ