クラス
ARFaceTrackingConfiguration
フロントカメラを使用して顔の動きと表情を追跡する構成。
宣言
class ARFaceTrackingConfiguration : ARConfiguration
概観
顔追跡の構成は、デバイスのフロントカメラから 3 メートル以内の顔を検出します。ARKit は顔を検出すると、人の顔の位置、向き、トポロジー、および表情に関する情報を提供する ARFaceAnchor (ARFaceAnchor) オブジェクトを作成します。
顔追跡は、iOS 14 および iPadOS 14 の AppleNeural Engine を搭載したデバイスをサポートし、iOS 13 および iPadOS 13 以前の TrueDepth カメラを搭載したデバイスを必要とします。デバイスが顔追跡をサポートしているかどうかを判断するには、この構成を使用する前に、ARFaceTrackingConfiguration で isSupported を呼び出して下さい。
isLightEstimationEnabled 設定を有効にすると、顔追跡構成は、検出された顔をライトプローブとして参照することにより、指向性および環境照明 (ARDirectionalLightEstimate オブジェクト) を推定します。
注意
顔追跡はあなたのアプリに個人の顔情報を提供するため、アプリには、顔追跡と顔データの使用方法をユーザに説明するプライバシーポリシーを含めなければなりません。詳細については、Apple デベロッパ向けの契約およびガイドライン を参照してください。
トピックス
構成の作成
新しい顔追跡構成を作成します。
ワールド追跡の有効化
class var supportsWorldTracking: Bool
iOS デバイスがワールド追跡セッションでユーザの顔の特徴の追跡をサポートしているかどうかを示すブール値。
var isWorldTrackingEnabled: Bool
ワールド追跡セッション中にアプリにユーザの顔データを提供するようにセッションに指示するブール値。
複数の顔を追跡
var maximumNumberOfTrackedFaces: Int
セッション中に追跡すべき顔の数。
class var supportedNumberOfTrackedFaces: Int
フレームワークが追跡できる顔の最大数。
関連
以下からの継承
ARConfiguration
以下も見よ
体と顔の追跡
class ARBodyTrackingConfiguration
背面カメラを使用して、体のポーズ、平面、およびイメージを追跡する構成。