@[TOC]

ARKit3.5 框架学习 (一)核心类简介(上)

1. ARKit框架简介

ARKit整合iOS设备摄像头和运动功能,在你的应用程序或游戏中产生增强现实体验。

7 G L ^ r Z K强现实(AR)描述了将2D或3D元素添加到设备摄像头的实时视图中的用户体验,以使这些元素看起来像是生活在真实世界中。A 0 X a b hRKit结合了设备运动跟踪、1 0 j I M N ) P n摄像机场景捕获、高级场景处理和显示功能,简化了构建$ E m m x Y WAR体验的7 I p 3任务。使用这些技术,你可以使用iOS设备的前置或后置摄像头创建多种AR体验。

1.1 ARKit 3.5 新增功能

ARKit 3.5添加了一个新的Scene Geometry API,该API使用激光雷达扫描仪X U } D K u 1创建空间的3D地图,以k E ` 5区分地板,墙壁,天花板,窗户,门和座椅。该扫% C i ^ y c T描仪能够在长达五米的距离内快速测量物体的长度,宽度和深度,从而使用户能够快速创k y ~ ` h )建可用于物体遮挡的数字传真机-使数字物体看起来像部分混入了场景中在真实物体后面。得益于“即时AR` Q k [ Y K ! S”支持,这些数字对象可以自动放置在空间中,而无需用户挥动平板电脑并让其相机感觉到空间。

苹果还表示,它在3.5版中改进了ARKit的动作捕捉和人物遮挡,可以X ] N 3 7更好地估算 ? G f X J p ) M人物的深度和动作捕捉的高度。以前,ARKit使用iPhone或iPad的2D相机在长度测量方面做得“足够好”,但是激光雷达扫描仪可以进行更精确的3轴测量,从% % @而自动使以前开发的应用程序受益,而无需更改代码。

o s 9 L s 3 { .的说来, ARKit 3.5 增加了以下三o 7 ! j 1 2 y :个方面的功能:

  1. 几何场景: 通过“几何场景”,您可以使用标识地板、墙壁、天花板、窗户、门和座椅的标签来创建空间的立体图。对现实世界的深入了解为虚拟对象解锁了对象遮挡和现实世界的物理原理,还为您提供了更多信息来增强您的 AR 工作场景。
  2. 即时AR:iPad Pro 上的 LiDAR 扫描仪可实现难以置信的快速平面检测,从而无需扫描即可$ | – h在现实世界中即时放置AR对象。iPad Pro 会自动为所有使用 ARKit 构建的] c i }应用启用. [ 2 a A g即时AR放置,而无需进行任何代码更改~ ! 9 :
  3. 改进的运动捕捉和人物遮挡: 通过 ARKit 3.5 在 iPad Pro 中应用,“人物遮挡”中的深度预测Y , V P ^ u和“运动捕捉”中的高度估计更加准t , :确了。这两个功能在 iPad Pro 上使用 ARKit 生成的所有应用中得到了改进,同样无需更改任何代码。

如下图是一个AR效果图:

ARKit3.5  框架学习 (一)核心类简介(上)

ARKit使用x 3 j cVisual Inert( * ] n X d 0 E zial Odometry(VIO,视觉惯性里程计)来精确跟踪现实世界中的真实场景。相比其它设备平台, ARKit中的VIO可以将传感器数据和CoreMotion的数据融合在一起,从而提供更为精确的信息。 ARKit可以让iO2 Y S n c ? –S设备精确感知它如何在房间内移动,而无需外部设备的校准。基于此原_ 8 } X A X T理, ARKit可以获取关于iOS设备位置和运动信息的高精度模型,并在场景中使用。

使用 ARKit,iPhone和IPad可以分析来自摄像头视图中的场景,并找到房间的水平平面。 ARKit可以检测到例如桌子和地板之类的平面,还可以# e c 7 i ,检测和跟踪物体。更酷的是, ARKit还可[ ` Q e以利用摄像头传感器来估算场景中的光线强度,从m @ y . + 2 I而在虚拟物体上提供合适的光照。

在实际的开发中,可以使用点击测试方法(如A m 4 m H H : wRHitTestResult类)来根据摄像头捕捉的图像找到真实世界的表面。如果开发者在配置中启p 8 J用了planeDetection,ARKit可以检测到摄像头所捕捉图像中的平面e 9 v @ 8,并记录其位置和大小信息。

1.2 ARKit 工作流程简介

如下图,解释的是 ARKit 的工作流程。其中蓝Z q $ * |色表示 ARKitv p n F b 负责l i g N = j的部分,绿色表示 SceneKit 负责的部分:

ARKit3.5  框架学习 (一)核心类简介(上)

从上图可以看出,AR工作的大致流程如下:

  • 首先,ARKitY I s 利用摄像头拍摄现实场景的画面,然后 SceneKit 用来建立虚拟世界` ) 1
  • 建立好了以后,ARK! b O s .it 负责将现实世界和虚拟世界的信息融合,并渲染出一个 AR 世界。
  • 在渲染的同时,ARKit– 7 t ( c o 要负责以下三件事:
  1. 维持世界追踪 指的是当你移动摄像头,要去获取新的现实世界的信息。
  2. 进行场景解析 指的是解析现实世界中有无特征点、平面等关键信息。
  3. 处理与虚拟世界的互动 指的是当用户点击或拖_ c 1动屏幕时,处理有没有点击到虚拟物体或者要不要进行添加/删除物体的操作。
  • 总的来说,ARKit 主要做的事是:捕捉现实世界信息、将现实和虚拟世界混合渲染、并且时刻处理新的信息或者进行互动。

2. ARKit框架类结构

iOS 平台的 AR 应用通常由 ARKit 和渲染引擎两部分构成:

ARKit3.5  框架学习 (一)核心类简介(上)

ARKit 的 ARSession 负责管理每一帧的信息。ARSession 做了两件I R ~ H – 7 0 5 l事:拍摄图像并获取传感器数据;K # l对数据进行分析处理后逐帧输出。如下图:

ARKit3.5  框架学习 (一)核心类简介(上)

要做AR相关开发肯定首先要熟悉s J O 0两个框架:

  • AR0 p K x [Kit : IOS平台专属
  • ARCore: Android平台

此外还可以使用Unity方案实现跨平台开发。

ARKit是基于3D场景(SceneKit)实现的增强现实,这是主Q F r流方式。
ARKit还基于2D场景(SceneKit)实现的增强现实。所以要学习ARKit框架外还有必要学习这两个框架:SceneKit, SpriteKit。后续博客会详细讲解这两个框架,尽请期待….

  • ARKit与SceneKit 的关系:

ARKit并不是一个独立就能P B ;够运行的框架,而是必须要SceneKit一起用才可以。:

  1. ARKit 实现相机捕捉现实世界图像并恢复三维世界
  2. SceneKit 实现在图像中现实虚拟的3D模型

2.1 SpriteKit框架简介

  • SpriteKit: 在应用程序中添Y K / $ i加具有流畅动画的高性o b R 能2D内容,或使用一组基于2D游戏的高级工具创建游戏。
    SpriteKit是一个通用框架,用于在二维中绘制形状、粒子、文本、图像和视频。它利用Metal来实现高性能的渲染,同时提供一个简单的e { 8 x y p m N编程接口,使得创建游戏和其他图形密集型应用程序变得容易。使用一组丰富的动画和物理行为,您可以快速地为您的视觉元素添加生命,并在屏幕之间优雅地转换。
    SpriteKit支持iOS、macOS、tvOS和watchOS,并与Gamef y = yplayKr d J G Dit和SceneKit等框架集成良好。
  • SpriteKit框架结构如下:

    ARKit3.5  框架学习 (一)核心类简介(上)

2.2 SceneKit框架简介

  • SceneKit框架:Y u – 7 s用来创建3D游戏,并使用高级场景描述将3D内容添加到应用程序中。轻松添加动画,物理模拟,粒子效果,和现实的物理渲染。
    SceneKit结合了一个高性能的渲染引擎和一个用A P ^ e e 5 !于导入、操作和渲染3D资产的描述性API。与底层api(如Metal和OpenGL)不同,后者需要您精确地实现显示场景的呈现算法的细节,而SceneKit只需要描述场景的内容以及您希望它执行的操作或动画。
  • SceneKit框架结构如下:
ARKit3.5  框架学习 (一)核心类简介(上)

ARKit 和 SceneKie X ~ at 的坐标系看. F h u起来就像这样:

ARKit3.5  框架学习 (一)核心类简介(上)

ARKit 和 S D 4 JceneKit 关系图如下:

ARKit3.5  框架学习 (一)核心类简介(上)

2.3 ARKM 9 h ^it框架

  • ARKit对开发环境要求:

Xcode版本:q Q ^ ; – ` 6 dXcode9及以上
iOSY U U | ! 6 e系统:iOS1j ~ ~ 31及以上
iOS设备要求:处理器K m U * T { LA9及以上(iPhone6s 、c P o |iPhone6sPlus] : C g @、iPhone7 iPhone7Plus、iPhoneSE、iPad Pro(9.7、10.5、12.9)、iPad(2017))
MacOS系统:10.12.4及以上 (安装Xcode9对Mac系统版本有要求)

  • ARK# R kit框架类结构汇总:
ARKit3.5  框架学习 (一)核心类简介(上)

2.3.1J H 1 R ? ARKit框架与其他框架关联

ARKit3.5  框架学习 (一)核心类简介(上)

如上图可以看出ARKit并不是一个独立就能够运行的框架,而是必须要SceneKit一起用才可以,换一句话说,如果| m r只有ARKit,而没有SceneKit,那么ARKit和一般的相机没有任何区别。相机捕捉现实世界图像,由ARKit来实现;在图像中显示虚拟3D模型,由p x ( * y –SceneKit来实x J 4 $现。

其中ARKit框架中中显示3D虚拟增强现实的视图ARSCNView继承S c G s _ w于SceneKix x Z | | _ F x t框架中的SCNView,而SCNView又继承于UIKit框架中的UIView。

UIView的作用是将视图显示在iOS设备的window中,SCNView的作用是显示一个3D场景,ARSCNView的? B _ E A作用也是显示一个3D场景,只不过这个3D场景是由摄像头捕捉到的现实世界图像构成。

ARSCNView只是一个视图容器,x / A R h它的作用是管理一个ARSession

在一个完整的虚拟增强现实体验中,ARKit框架只负责将真实世界画面转变为一个3Dc G G | k景,这一个转变的j 4 r W .过程主要分为两个环节:由ARCamera负责捕捉摄像头画面,0 M 9由ARSession负责搭建3D场景。

ARKit在3D现实场景中添加虚拟物体使用的是父类SCNView的功能,这个功能早c h s u U 5 .在iOS8时就已经/ ) Z n添加(SceneKit是iOS8新增),A+ 0 , L .RSCNView所有跟场景和虚拟物体E p & ; L相关的属性及方法都是自己父类SCNView的。

2.3.2 t z ! R H2 ARKit框架工作原理

ARKitm W j f 6提供两种虚拟增强现p v . p实视图,他们分别是3D效果的ARSCNView和2f = X M & % oD效果的A! N { r 4 ^RSKView。无论是使用哪一个视图都是用了相机A y t A v ; 7 D 4图像作为背景视图,而这一个相机的图像就是由框架中的相机类ARCamera来捕捉q y o 8 F的。

然而 ARSCNView与ARCamera两者之间并没有直接的关系,它们之间是通过AR会话,也就是ARKL ~ ; p 3 # rit框架Y q _中非常重量级的一个类ARSession来搭建沟通桥梁的。

如果我们要想运行一个ARSession会话,我们必须要指定一Y k z J ? f个称之为ARSessionConfiguration(会话追踪配置)的对象,ARSessionConfiguration的主要目的就是负责追踪相机在3D世界中的位置以及一些特q A y r c #征场景的捕捉(例如平面捕捉)。

ARSessionConE L A D ^figuration是一个父类,为了更好的看到增强现实的效果,苹果官方建议我们使用它的子类ARWorldTrackingSessionConfiguration,该类只支持A9芯片之后的机型,也就是iPhone6s之后的机型。

如下图是ARSessiv K V Z son会话扮演的角色:

ARKit3.5  框架学习 (一)核心类简介(上)

ARSession搭建沟通桥梁的参与者主要有两个ARWorldTrackingSessionConfiguration与ARFrame。

ARWorldX Q U *Tr| y r , B f B , &ackingSessionConfiguratl A ?ion(会话追踪配置)的作用是跟踪设备的方向和位置,以及检测设备摄像头看到的现实世界的表面。它的内部实现了一系列非常庞大的算法计算以及调用了你的iPhone必要的传感器来检测手机的移动及旋转甚至是翻滚。

当ARWorldTrackingSessionConfiguration计算Y 8 $ d h出相机在9 b C L ) H ] =3D世界中的位置时,它本身并不持有这个位置数据,而是将其计算出的位置数据R + E + P o d c [交给ARSession去管理,而相机的位置数据对应的类就是Ar u B NRFrame。

我们可以看到ARSessionN * 4 m – =类一个属性叫做currentFrT L P : ^ N H y Qame,维护的就是ARFrame这个对象。

其中ARCameO 8 ` 2 6 ~ * O cra2 u E只负责捕捉图像,不参与数据的处理。它属于3D场景中的一个环节,每一个3D Scene都会有一个Camera,它觉得了我们看物体的视X . ~ X % D h w野。

如下图是ARSession和ARFrame的关系:

ARKit3.5  框架学习 (一)核心类简介(上)

2.3.3 ARKit框架工作流程

  • ARKit框架工作流程:
  1. ARSCNView加载场景SCNScene
  2. SCNScene启动相机ARN a { l o K D V 7Camera开始捕捉S Y V N 7 6场景
  3. 捕捉场景后ARSCNView开始将场景数据交给Session
  4. Session通过管理ARSessionCo, – k =nfigurS U / X C eaI b / : k Gtion实现场景的追踪并且返回一个ARFrame
  5. 给ARSCNView的scene添加一个子节点(3D物体模_ = s W N N { ?型)

ARKit框架工作流程图如下:

ARKit3.5  框架学习 (一)核心类简介(上)
  • ARKit框架中一下类L c V关系说明:
  1. ARKit框架中中显示3D虚拟增强现实的视图ARSCNView继承于SceneKit框架中的SCNView,而SCNView又继承于UIKit框架中的UIView。
  2. 在一个完整的虚拟增强现实体验中,ARKit框架只负责将真实世界画J : g面转变为一个3D场景,这一个转变的过程主要分Q Z y Z为两个环节:由 ARCamera负责捕捉摄像头画面,由ARSession负责搭建3D场景。
  3. ARSCNView与ARCamera两者之间并没有直接的关系,它们之间是通过AR会话,也就是ARKit框架中非常重量级的一个类ARSession来搭建沟通桥梁的。
  4. 要想运行一个ARSession会话,你必须要指定一个称之为会话追踪配置的对象:ARn # g K tSessionConfiguration, ARSessionConfiguration的主要目的就是负责追踪相机在3D世界中的位置以及一些特征场景的捕捉(例如平面捕捉),这个类本身比较简单却作用巨大。

3. ARKit核心类

ARKit3.5  框架学习 (一)核心类简介(上)
  • 头文件定义如下:
#import <ARKit/ARError.h>
#import <ARKit/ARSx L d : 8 5 w - 9ession.h>
#import <ARKit/ARConfiguration.h>
#import <ARKit/A* - | E ! f @RFra0 n J V ( N - Rme.h>
#import <ARKit/ARCamera.h>
#import <ARKic } l 0 t/ARHitTestResult.h>
#import <ARKit/ARLightEstimate.h>
#import <ARKit/ARPointCloud.h>
#import <ARKit/ARReferenceImO N 0age.h>
#imW v [ v u { O b [port <ARKit/ARReferenc+ + 6 j u @ 1 }eObject.h>
#import <ARKit/ARVideoFormat.h>
#import <ARKit/ARCollM M M V U [ = ! 1aborationData.h>
#import <ARKit/ARWorldMap.h>
#imp, E Dort <ARKit/ARRaycastQuery.h>
#import <ARKit/ARTrackedR^ } w o p K vaycast.h>
#import <ARKit/ARRaycast~ o lResult.h>
#import <ARKit/ARAnchor.h&K u P [ ^ D + P 0gt;
#import <ARKit/AREnvironmentProbeAnchor.h>
#import <ARKit/ARF# T # v H ! (aceAncQ , q X 5 k R , phor.h>
#import <ARKit/ARFaceGeometry.h>
#import <ARKit/ARIu 5 } 9 kmageAnchor.h>l L c ; (;
#import <ARKit/ARObjectAnchor.h>
#import <ARKit/ARParticipantAnchor.h>
#import <AR7 . A  f M : ,Kit/ARPlaneAnchor.h&{ E P $ Ggt;
#imL B X 9 Xport <ARKit/ARPlaneGeometryU p y 0 X 4 Q ;.h>
#import <ARKit/ARSkeleton.h>
#import <ARKit/ARSkeletonDefinition.h&g; = ^ % m Ct;
#import <ARKit/ARBody2D.h>
#import <ARKit1 ? M p j W C k/ARBodyAnchor.h>
#import <ARKit/ARCoachingOvers s G [ ylayView.h>
#import <ARKit/V o nARSCNView.h>
#import <ARKit/ARSKView.h&g& - 3 4 At;
#import <ARKit/ARMatteGenerator.h>
#import <ARKit/ARQuickLookPreviewq d ) # pItem.h>

3.1 ARError

  • ARError: ARKit方法抛出错误的类型。
    ARError它是一个结构体类型,如果:
struct ARError

ARError 的错误码如下:

  • c ? : M Qamera! P q (Ua 7 0nauthorized: 一个错误代码,表明该应用程序没有使用相机的用户权] { X 5 $ 1 | k限。
  • fileIOFailed: 一个错误代码,表明ARKit无法读取或写入所需的文件。
  • insufficientFeatures: 错误代码表明ARKit没有完成任务所需的特性。
  • invalidCollaborv y E B 9 I 6ationData: 一个错误代码,指示ARKit无法使用特定的协作数据对象更新应! O K用程序的会话。
  • invalin l $ , h #dConfiguration: 指示配置包含不明确或错误数据的错误F . & ( { ^代码。
  • invalidReferenceImage: 指示参考图像不可用的错误代码。
  • invalidReferenceObjec, r pt: 指示引用对象不可用的错误代码。
  • invalidWorlE v O R A – % ;dMap: 表示世y ? A W + u y & :界地图不可: ? i用的错误代码。
  • microphoneUnauthorized: 一个错误代码,表明该应用程序没有使用麦克风的用户权限g G H l H r ! ] Q
  • objectMergeFailed: 一个错误代码,表明ARKit无法合并检测到的对象。
  • sensorFailed8 a – % d O , P: 指示传感器未能提供所需输入的错误代码。
  • sensorUnavailable: 指示运行会话所需传感器的错误代码不可用。
  • unL 3 f u J M o IsupportedConfiguration: 一个错误代( 1 [ 1 N h码,表明您运行的配置在iOS设备上不受支F ~ J K ? & l n 2持。
  • worldTrackingFailed: 一个错误代码,表明世界跟踪遇到了一个j c I ] [ G ` 9致命的错误。

3.2 ARSession

  • ARSession:用于控制增强现实体验的主要对象。

ARSession对象协调ARKit代表您执行的主要进程,以创建增强现实体验。这些过程包括从设备的运动感知硬件读取数据,控制设备的内置摄像头,并对捕获的摄像头图像进行图像分析。该会话综合了所有这些结果,从而在设备所在的真实空间和建模AR内容的虚拟o X U 6 @ B x m空间之间建立了一种对应关系。

class ARSession : NSOb+ i hject
ARSession类定义
ARSession属性方法

3.2.1 ARSessionObserver

  • ARSessionObserver:提供方法可以实现以响应AR会话状态的更改。
protocol ARSessionObserver

该协议定义了ARSessionU ~ N Q m BDe2 ] + K O B Ilegate、ARSCNVi4 / .ewDelegate和ARSKViewDelegate协议通用的可选方法。您可以在采用这些协议之一时实现此协议的方法。

3.2.2 ARSessionDelegate

  • ARSessionDelegate: 提供方法可以实现从AR会话接收捕获的视频帧图像和跟踪状态。
protoco| m K n k & Kl ARSessionDelegS s n ; D = . Wate

如果您需要直接处理会话捕获的ARFrame对象,或者直接跟踪会话的已跟踪ARAm 7nchor对象集的更改,请实现此协议。通常,您在构建用于显示AR内容的自定义@ U o Y }视图时采用此协议l ~ { `—如果您使用SceneKit或Sprit % } z [ b j k zeKit显示内容,则ARSCNViewDelegate和ARSKViewDelegate协议提供类似的信息并与这些技术集成。
该协议扩展了ARSessionObserver协议,因此您的会话委托也可以实现那些方法来响应会话状态的更改。

3.3 ARConfiguration

  • ARConfiguration:一个对象,它定义在给定时间内在会话中启用的特定ARKit特H w & S x性。
class ARConfiguration : NSObjectl k n

ARConfiguration为您可3 ; O x l Z 3以在AR体验中配置的不同选项定义了一个基类。你自己不分配配置;而是实例化它的一个子类。

要实现AR@ = } 4 e m ` K体验的T c : J $ ? X L特性,您需要创建以下子类之一,并通过run^ f ] m } o 4(with:)在您的会话中运行它。一个会话一次只能运行一种配置,所以选择一种最能促进所需AR体验的配置。ARConfiguration提供了以下一些配置:

ARKit3.5  框架学习 (一)核心类简介(上)
  • ARU . 8 a E ? m t ~WorldTrackingf X ? NConfiguration : 跟踪设备相对于任何表面,V l a 9 v q ?人,或已知的图像和对象的位置和方向,ARKit可能会发现和跟踪使用设备的后摄像头。
  • ARBodyTrackingConfiguration : 使您能够跟踪一个人,飞机和图像使用设备的后摄像头。
  • AROrientationTo H c ) H YrackD I 9 jingConfiguration :使用后置摄像头只% a 0 4 M跟踪设备的方向。
  • ARImaget – V O 7 } x ; &TrackingConfiguration :通过使用设备的后置摄像头跟踪图像,只跟踪已知的图像。
  • ARFaceTrackingConfiguration :只追踪设备的自拍相机中的人脸,包括动作和面部表情。
  • ARObjectScanningConfiguration :使用后置摄像头来收集关于特定对象的高保真数据j Q 0 q e * 8,你希望你的应用程序在运行时能够识别这些对象。
  • ARPf g J I &ositionalTrackingConfiguration :只跟踪设备在三维空1 ? h间中的位置。

ARConfigurati6 ! / Z S p D 2 lon 类结构

ARKit3.5  框架学习 (一)核心类简介(上)

具体定义如下:

/**
一个对象来描述和配置增强现实技术,以在ARSession中使用。
*/
API_AVAIL: W 3 b W 6 P =ABLE(ios(11.0))
@interface ARh 6 aConfigurai a R = _tion : NSObject <NSCopyingh % a J e H>
/**
确定此设备是否支持ARConfiguration。
*/
@property (class, nonatomic+ $ 6 f n 9 M $ , readonly) BOOL isSupported;
/**
此配置和设备支持p w d的视频格式列表。
@discussion 列表中的第一个元素是会话输出的默认格式。
*/
@f U , 7 {property (class, nonatomic, readonly) NSArrayW ~ 7 I N { [ g<ARVideoFormat/ ? R *> *supportedVideoFormats API_AVAILA7 ( l & | ^ C XBLv A ` # + . kE, w ^ i =(ios(11.3X Z 6 B 5 e r));
/**
视频格式的会话输出。
*/
@property (nonatomic, strong)A U = e W } B ARVideoFormat *videoFormat API_AVAILABLE(ios(11.3))g - ;
/**
决定了坐标系应该如何与世界保持一致。
@discussig 7 e 8 won 默认是1 ) 3 H A ARWorldAlignmentGravity.
*/
@property (nonatomic, assign) ARWon @ J . U p E t 9rldAlignment worldAlignment;
/**
启用或禁用光估计。
@discussion 默认开启
*/
@property (nonatZ A F r -omi[ . , ^ c ! 3c, assign, getter=isLigh+ 5 f ! e K H P stEstimationEnabb b Iled) BOOL lightEstimationEnabled;
/**
确定是否捕获和提供音频数据。
@discussion 默认禁止.
*/
@property (no T p snatomic, assign) BOOL providesAudioData;
/**
为每个框架提供的语义理解类型。
@di1 @ e W -scussion 使用“supportsFrameSemantics”类方法检查要运行的配置类型是否支持框架语义集。例如,当运行一个会话时
一个ARWorldTrackingConfiguratN 4 J 1 vioY W | , J gn类型的配置需要使用“+[ARWorldTrackingConfiguration supportsFrameSemantics:]”来执行上4 v ^ 7 $ ,述检查。
如果该选项,则引发异常
不支持。默认为ARFrameSemanti5 T 9 U j 7 ,cNone。
@see ARFrameSemantics
@see +[ARConfiguration supp) ( AortsFrameSemq Q k z j Iantics:]
*/
@property (nonatomic, assign) ARFrameSemantiU G v b V  hcs frameSemant} :  * K & r % Bics API_AVAILABLE(ios(1K P ^ q ^ r S @3.0));
/**
确定设备和ARConfiguration类是否支持帧语义的类型。
@discussion 并非所有设备都支持语义框架理解。使用“supportsFrameSemantics”类方法检查要运行的配置类型是否支持
框架语义6 Y b V !集。例如,当运行一个配置类型为ARWorldTrackingConfiguration的会话时,就需要使用它K o 3 x J h l P
+[AK P 0RWorldTrackinx 8 O ^ X /gCL v d A 7 { ,onfigu+ R 8 = _ration supportsFrameSemantics:]来执行上述检查。
@/ W @ k 0 J v ( Qsee ARFram/ & 2 * e j ceSema: ? y I  Sntics
*/
+ (BOOL)e b L ` Z @ O 5 ^supportsFrameSemz o J ; ? g M AanX C Q Z A ) ztics:(ARFrameSemantics)frameS` U a W n % Wemantics API_AVA7 + $ 7 @ , ,ILABLE(ios(13.0));
/** Unavailable */
- (instancetype)init NS_UNAVAILABLE;
+ (instancetype)new NS_UNAVAILABLE;
@end

3.3.1 ARObjectScanningConfiguration

  • ARO^ S , U a ; ) =bjectScannin( ` 1 K lgConfiguration :
    用于收集物理环境中真z f ` r Y实对象的高保真空间数据的配置。
class ARObjectScanningQ ^ L z - !ConfiguratV z `ion : ARConfiguration
ARKit3.5  框架学习 (一)核心类简介(上)

ARObjectScanningConfiguration类定义:

/**
扫描对& s ~ x W z y F +n U k K = 5的配置。
@discussiP l Oon 对象扫描配置运行世界跟踪,捕获额外的细节以创建i m m g引用对象。
运行对象扫描将消耗额外的能量,以提供更详细的功能。
可以在会话中调用n 8 ^createReferenceObject方法来捕获世界中对象的扫描。
*/
API_AVAILABLE(ios(12.0))
@interface ARObjectScanningCon8 F .figuration : ARConfiS 5 ^ Q v Y Pguration
/^ O $ {**
启用或禁用连续自动对p F ) 7 j T 1焦。
@discussion 默认开启.
*/c m 1 B 1 _
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled;
/**
场景中要检测的飞机类型。
@discussion 如果设置,新的飞机将继续被检测c ! F w a U ? ? d和更新的时间。检测到] c | . g ?的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPlab 6 / = i GneDetectionNone。T m Y B
*/
@property (nonatomic, assign) ARPlaneDetection plane0 / A k CDetection;
- (instancetype)init;
+ (instan1 W a s  V =cetype)new NS_SW1 9 r %IFT_UNAVAILABLE("Use init() instead");
@end

要创建一个识别物理环境中的对象的应用程序,首先要在开发期间使用ARObjectScanningConfiguration 扫描它们。扫描对象之后,调用createReferenceObject(transform:center:extent:completionHandler:) 将其转换为一个可以在运行时再次检测它的ARReferenceObject。当用户运行你的应用程序时,% j @你要求ARKit通过运行一个世界跟踪配置来寻找你A g A n S 8 j { {扫描的objects,并将V ] g F Y引用对象分配给它的de% B H 1 h 6 5tectionObjects属性。

  • ARObjectScK K ] T 6 9 3 lanningConfiguration 仅用于开发场景。由于对象扫描所需的高保真空间映射具有较高的性能和能量消耗,因此禁用了许多对象扫描不需要的ARKit特性。

  • createReferenceObject(transform:center:extent:completionHandler:) 函数说明:从会话的世界空间的指定区域创建一个引用对象(用于3D对象检测)。它的定义如下:

func create e y ) n R A geReferenceObject(transform: simd_float4x4,
centG 1 T P _ K mer: sim) S { * P ; z Z ;d_float3,
extent: simd_float3,
coO 2 .mpletionHa2 6 $ o W pndler: @esQ k Y i F G m X ;caping (ARReferenceObject?, Error?) -> Void)

这个函数会返回一个表示世界地图的指定区域的一个ARReferenceObjI b x )ect。
参数说明:

  1. transform:定义要提取区域的局部坐标系统的原点和方向的变换矩阵。
  2. center:相对于transfZ X ? morm指定的原点的一个点,它定义要提取的区域的边界0 l C框的中心。
  3. extent:要提取的区域的宽度、d * – F l Z &高度和深度,以中心n . m e r g M N点为中心并指向变换指定的本地坐标系统。
  4. completioy j d E - i 2 !nHandler:在ARKit完成创建引用对象后异步调用的处理程序。处理程序有两个参数G H Q T } z j:
  5. referenceObject:f V _ 2 + 6 生成的ARReferenceObjecl & `t,如果不能创建引用对象,则为nil。
    6 error: 如果referenceObject为nil,则会出现一个= C . B = ] @ ;ARError来描述2 1 W }失败。

注意:此方法仅在使用ARObjectScanningConfiguration运行会话时有效,该配置支持扫描引用对象所需的高保真空间数据收集。在具有不同配置的会话上调用此方法将L ? v c H # v A立即调用带有错误的completionHand? O / 6 sler。

要使用提取的参考对象进行3D对象检测,请将其分配给世界跟踪配置的detectionObjects属性。您可C y p `以将引用对象保存到文件中,并将它们添加到XcodM ^ u * meS N 2 i $ H d : ]资产目录中,从而将它们绑定到应用1 Z 5 s # Q $ 8程序中。

当ARKit检测到一个引用图像时,结果ARObjectAnchor的转换基于引用对象的坐标系# S P A e y ^统的组织——在提取引用对象时指定的转换。例如,如果引用对象表示位于水平面上的物理项,则虚拟内容应该出现在物理对象所做的任何表面上。要在提= o u I H L B , _取后调整引用对象的原点,请使用applyingTransform()方法。

  • applyingTransform()方法说明: 这个方法返回一个将指定的转换应用于此引用对象的几何数据而u ) Is 4 ( 0 R $ 9 [ (建的新引用对象。
func applyingTransform(_ transform: si$ R L q N Q : Wmd_fi u A Cloat4x4) -> ARReferenceObject

传入参数transform: 参考对象的局部坐标空间中的变换矩阵。

从ARWorldMap中提取引用对象时,要定义它的本地b Q @ J | [ ? 5 T坐标空间。如果现有的引用对象具有与对象的预期用途不匹配的局部坐标原点,则调用此方法来更改引用对象相对于其所表示Y T B的物理对象的原点。

当ARKit检测到一个0 / r ( h i引用对象时,结果ARObjectAnchor的转换基于引用对象的坐标系统的组织。例如,如果! X T 3 _ C引用对象表示位于水平面上的物理项,则虚拟内容应该出现在物理| L I q S e对象所做的任何表面上。因此,将引用对象的坐标原点与物理对象的底部对齐通常很有用。

3.3.2 ARBodyTrackingConfiguration

  • ARBodyT+ n y 2 d k / FrackingConfiguration: 在三维空间中用来跟踪人的运动的一种配置。
cQ O V $ } 0 G 6 %lass ARBodyTrackingConfiguration : ARConfiguration

当ARKit在后摄像头提要中识别一个人时,它调用session(_:didAdd:),并向您传递一个ARBodyAnchor,您可以使用它来跟踪身A 4 Z L n u U ? t体的运动。
启用了平面检测和图像检测。如果使用bodyx D R g锚来显示虚拟字符,则可以在选择的表面或图像上设置该字符。
默认情况下, N J CARConfig. Z ; K j )uration.FrameSemantics类型的bodyDetection是启用的,它允许你访问一个人的关节位置,ARKit通过帧的detectedBody在摄像头反馈中检测到这个人。

3.3.2.1 ARBodyTrackingConfigL X = M iuration 类定义
ARKit3.5  框架学习 (一)核心类简介(上)
/**
用于运行身体跟踪的配置。
@discus4 h I . / [ X / +sion 身+ W Z [ j 1 z _ i体跟踪提( ] B供了6个自由度的跟踪被检测的身体? F s (在现场。默认情况下,ARFrameSemantic} x 1Bo( 6 d ]dyD4 q U C ,etection是
启用。
@see ARBH p podyAnchor
@see -[ARFrame detectedBody]
*/
API_AVAILABLE(ios(13.0))
@interU P @ V i d YfaH X /ce ARBodyTY + ? 3 4 1 v A xrackingConfiE ) _ = ] - ! b pguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussion 默认开启.
*/
@property (nonatomic, assignU G 4 / Q | H %, gette? H g Or=isAutoFocusEnabled) BOOLn _ l & D e h Z autoFocusEnabled;
/**
世界跟踪将定位和跟踪的物理空间的初始地图。
@discussion 如果设置了,会话将尝试本地化到提供的映射
在本0 p y地化成功或再次运行之0 W x . e 3 z /前,将调用有限的跟踪状态
指定了不同的(或没有)初始映射。一旦本地化,地图将被扩展
并且可以在会话中使用' getCurrentWorldMap '方法再次保存。
*/
@property (nonatomic, strong, nullable) ARWorldMap *initiI ` _ w } ] f z EalWorldMap;
/**
运行环境纹理的模式。
@discussion 如果设置,纹理信息将被积累和更新。向会话添加一个AREnvironmentProbeAnchor
将获得当前环境纹理从探测器的角度可以用来照明
场景中的虚拟对象。默认为AREnvironmentTexturingNonN x b G J ( H p =e。
*/
@property (nonatomic, assign) AREnvironmentTexturing environmentTexturing;
/**
确 E $ $定环境 J w :  l纹理是否具有高动态范围。默认启用。
*/
@property (nonatomic, assign) BOOL wantsHDREnv  4 XironmentTextures;
/**
场景中要检测的飞机类型。
@discussion 如果设置,新y q l 6 D e D l fW m C 2 ~飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象5 { Y o。如果两个平面合并,则新平面将F O 5 @ l被删除。默认为ARPlaneDetectionNone。
*/
@property (nonatomic, assign) ARPlaneDetection planeDetection;
/**
在场景中检测图像。
@discussion 如果设置,会话将尝试检测指定的图像。当检测到一个图像时,ARIy , K -mageAnchor将被E ) j h R添加到会话中。
*/
@property (nonatomic, copy) NSSet<ARReferenceImage *> *detectionImages;
/**
启用可用于校正图像的物理大小的比例因子的估计。
@discussion 如果设置为true ARKit,将尝试使用计算l V F S i z 3 : J过的摄像机位置来计算给定物理大小所对应的比例
与估计的不同。关于估计比例尺的信息可以在ARImageAnchor上找a / p u R k到estimatedScaleFactor属性。
@note 当设置为true时,返回的ARImageAnchor的转换将使用估计的比例因子来修正转换。默认值是NO。
*/
@property (nonatomic, assign) BOOL automaticImageScaleEst4 m & ; ( x F WimationEnabled;
/**
允许估计比例因子,该比例因子可用于在3D中纠正骨骼的物理大小。
@discussion 如果设置为true ARKit,将尝试使用计算过的摄像机位置来计算给定物理大小所对应的5 ` ` D U Z比例
与默认值不同。关于估计比例尺的信息可以在ARBodyAnc* ] S E b qhor上找到estimatedScaleFactor U q S J K r R 8属性。
@n; z G s 9 s : Cote 当设置为true时,返回的ARBodyAnchor的转换将使用估计的比例因子来修正转换。默认值是NO。
*/
@prL | joperty (nonatomic, assign) BOOL automaticSkeletW : D n * M 7 r ronScaleEstimationEnablev B [ ` % e }d;
/**
同时跟踪的最大图像数。
@discussion 设置跟K n 3 m 踪图像的最大数量将限制给定帧中可以跟踪的图像的数量。
如果看到的图像超过最大值,则只有已经被跟踪的图像将继续跟踪,直到丢失跟踪或删除另一个图像为止。
不管跟踪的图像是什么,图像都将继续被检测到。默认值为0。
*/
@property (nonatomic, assign) NSInteger mg V v M h 0 aaximumNumberOfTrackedC J d 5 B ( % 5 OImages;
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE(e ) u ; - p 2 Q"Use init() instead");
@end
3.3.2.1 ARBodyTrackingConfiguration 属性和方法
  • 创建一个配置
//创建一个新的H  Z y身体跟踪配置。
init()
//试图使用此会话配置恢复前一个AR会话的状态。
var initialWo1 = =  k J w ?rldMap: ARWorldMap?
  • 估计身体比例
//一个标志,它决定ARKit是否估计它所跟踪的物体的X _ ` 4 * 4 E高度。
var automaticSkeletonScaleEstimationEna* H L # _bled: Bool
  • 支持自动对焦
//一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。
var isAutoFocusEnabled: Bool
  • 使飞机检测
//一个值,指定会话是否以及如何尝试自动检测摄像机捕获的图像中的平面。
var planeDetection: ARWorldTrackingConfiguration.PlaneDetection
//选择是否和如何检测捕获的图像平面
struct ARWorldTracki0 ; e QngConfiguration.PlaneDetection
  • 使图像跟踪
//一个标志,指示ARKit估计和设置跟踪图像的规模代表您。
varo T 7 _ O F . F & aut^ [ K - c D e qomaticImageScaleEstimatO 7 4ionEnabled: Bool
//ARKit试图在用户环境中检测的一组图像。
var detectionImages:t 7 ^ ~ @ w O Set<Ag ~ R o $ $ ? q {RReferenceImage>
//检测图像的最大数目,为其同时跟踪运动。
var maximumNumberOfTrackedImages: Int
  • 增加了现实的反射
//一个标志,指示ARKit创建HDR格式的环境纹理。
var wantsHDREnvironmentTextures: Bool
//用于生成环境纹理。
var environmentTexturing D = 9 | 4 o + 5: ARWorldTrackingConfiguration.EnvironmentTexturing

3.3.3 ARFaceTrackingConfigura1 { %tion

  • ARFaceTrackingConfiguration: 当你只是想要使用设备的前置摄像头来跟踪人脸/ 6 m – q } 7 . 8时,你可以使用这种z & 配置。
class ARFaceTrackingConfiguration : ARConfigu^ } yration

人脸跟踪配置检测可以在设备的前置摄像头中看到的人脸。当ARKit检测C S j + 4 _ )到人脸时,它会创建一个Ab # ARFaceAnchor对象,该对象提供关于人脸的位置和方* – w 9向、拓扑结构以及描述面部表情的特征的信息。

面部跟踪只能在带有前置TrueDepth摄像头的iOS设备上使用(W X E 5参见iOS设备兼容性参考资料)。在为用户提供任何需要面部跟踪的功能之前 M A O 7,使P ^ V 1 7 + 2 G用ARFaceTrackingConfiguration isSupported属性来确定当前设备上是否可以进行面部# ? t S U }跟踪。

ARFaceTrackingConl w { 6 5figuration类r 3 g t k i V不提供方法或属性,但是支持从它的超类A: n e tRConfi} # P 2 x 1 guration继承的所有属性。此外,当您启用isLightEstimationEnabled设置时,面部跟踪配置将检测到的面部用作光探测器,并提供定向$ J 9 : u f h y或环境照明的估计(一个ARDirectionalLightEstimate对象)。

面部跟踪为您的应用程序提供个人面部信息。如果你使用ARKitY 4 v $ C A a J P面部跟踪功能,你的应用程序必须包G } @ L N括一个隐私政策,向用户描述你打算如何使用面部跟踪和面部数据。有关详细信息,请参见苹果开发者程序许可协议。

3.3.3.1 ARFaceTrB C * k X A PackingConfigurao ) 0 c _ ~ Mtion 类定义
ARKit3.5  框架学习 (一)核心类简介(上)
/**
运行面部跟踪的配置.
@discussion 面部跟踪使用前置摄像头在3D中跟踪面部,提供关于面部拓扑结构和表情的细节。
检测到的人脸将作为ARFaceAnchor对象添加到会话中p + ? D / b /,该对象包含关于头部姿态、网格、眼睛姿态和混合形状的信息
系数。如果光估计是启用的,被检测的脸将/ V T : , A 0 ? x 2 Q ^ M q | p 5视为一个光探针,用来估计入射光的方向。
*/
API_AVAILABLE(ios(11.0))
@i& n v 6 H + q Snterface ARFaceTrackingConfiguration : ARConfiguration
/**
可以同时跟$ w ` & Y H y v W踪的最大面数。
*/
@pry ] V !  moperty (class, nonatomicq E ;, read@ ] 4only) NSInteger supportedNumberOfT` C K e b jrackedFaces API_AVAILABLE(ios(13.0));
/**
同时跟踪的最大面数。
@discussion 设置最大跟踪面数将限制给定帧中可以跟踪的面数。
如果超过最大值可见,只有已经被跟踪的面孔将继续跟踪,直到跟踪丢失或另一个面孔被删除。
默认值为1。
*/
@proped 5 $ x 6 Hrty (nonatomic, assign) NSInteger maximumNumberOfTraW ~ , M L W !ckedFaces API_AV& N FAILABLE(ios(13.0));
/**
指示是否可以在此设备上启用世界跟踪。
*/
@property (class, nonatomic, rea2 L t a 6 ` t ?donly) BOOL supportsWorldTrac: p - z q 7king API_AVAILABLE(ios(13.0));
/**
启用或禁用世界跟踪。默认情况下禁用。
@discussion 启用后,ARSb g = X kession使用后置摄像头来跟踪设备在F e W世界上的方位和位置。摄像机变换和ARFaceAnchor变换将在世界坐标空间中。
*/
@property (nonat5 t O d z komic, assign, getter=isWorldTrackingEnab2 V l cle6 ? @d) BO| e * 9 8 n lOL worldTrackingEnabled API_AVAILABLE(ios(1F U 33.0));
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.3.2 ARFaceTrackingConfiguration 属性和方法
  • 创建一个配置
//创建一个新的面部跟踪配置。
init()
  • 开启世界跟踪
//iOS设备是否支持世界跟踪与面部跟踪。u [ c X 9 _ o k 8
class var supportsWorldTracking: Bool
//使世界跟踪与脸跟踪是否开启。
var isWorldTrackingEnabled: Bool
  • 跟踪多个面孔
//同时跟踪的最大面数。
var maximumNumberOfTrackedFaces: Int
//A! - 5 Q i MRKit可以同时跟踪的最大面数。
class var supporE Q ! _ i S 1tedNumberOfTrackedFaces: Int

3.3.4 ARWorldTrackingConfiguration

  • ARWorldTrackin$ Z % qgConfigurati3 c b I 3 W s ;on : 跟踪设备相对于任何表面,人,或已知的图像和对象的位置和方向,ARKit可能会发现和跟踪使用设备的后摄像头。
class ARWorldTrackingConfiguration : ARConfiguration

所有AR配置都建立了设备所在: ^ g = ~ m r的真实世界与虚拟3d坐标空间之间的对应关系,在虚拟坐标空间中,您可以对内容进行建模。当您的应用程序将虚拟内容与实时摄像机图像混合时,用户会产生一种错觉,认为您的虚拟内容是真实世界的一3 * k | g部分。

创建和维护空间之间的这种对应关系需要跟踪设备的移动。ARWorldTrackingConfig5 M [ 3 *uration类使用六个自由度(6DOF)3 { D | e P +跟踪设备的移动:三个旋转轴(滚动、俯仰和偏航)和三个平移轴(xyz中的移动)。

这种跟踪可以创造身临s y 9 X ^ j M 4 2其境的基于“增大化现实”技术的游戏体验:虚拟对象可C 7 X J y p c m D以呆在同一个地方出现相对于现实世界,即使用户倾斜设备高于或低于该8 ! m ; G对象,或移动周围的设备对象的两侧和背部。

ARKit3.5  框架学习 (一)核心类简介(上)

ARWorldTrackingConfiguration 提供 6DoF(Six Degree of Freedom)的设备追踪。包括三个姿态角 Yaw(偏航角)、Pii L ) ] ( R Ktch(俯仰角)和 Roll(翻滚角),以及沿笛卡尔坐标系中 XYZ 三轴的偏移量,如下图:

ARKit3.5  框架学习 (一)核心类简介(上)

不仅如此,ARKit 还使用了c Q 1 p VIO(Visual-Inertial Odometry)来提高设备运动追踪的精度。在使用惯性测量单元(If m ) CMU)检测运动轨迹的同时,对运动过程中摄像头拍摄到的图片进行图像处理。将图像中的一些特征点的变化轨迹与传感器的结{ 6 X M I % ^ p果进行比对后,输出最终的高精度结果。

3.3.4.1 ARWorldTrackingConfiguration 类定义

ARWorldTrackingConfiguration还提供了几种方法,让你的应用程序识别或与相机可见的真实世界场景的元素进行交互:

  1. 使用planeDetection查找真实世界的水平或垂直表面,将它们作为ARPlaneAnchor对象添加到会话中。
  2. 使用detectionImages识别和跟踪已知的2D图像的移动,将它们作为ARImageAnchor对象添加到场景中。
  3. 使用detectionObjects来识别已知的3D对象,将它们作为ARObjectAnchor对象添加到场景中。
  4. 在ARFrame、ARView、AR+ B L w CSCNView或ARSKView上使用光线投射函数来查找与摄像机视图中的2D点相关的真实世界特征的3D位置。
ARKit3.5  框架学习 (一)核心类简介(上)

ARWorldTrackingConfiguration类定8 % v !义:

/**
运行世界跟踪的配置.
@discussion 世界跟踪提供6个自由度的跟踪设备。
通过在场景中寻找特征点,世界跟踪可以对帧执行命中测试。
一旦会话暂停,跟踪将不能再继续。
*/
API_AVAILABLE(ios(11.0))
@interface ARWorldTrackingConfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discussionY  O L 默认开启.
*, : | = x F h/
@p4 j o ! D Broperty (nonatomic, assign, getter=isAutoJ M ~ /FocusEnabled) BOOL autoFocusEnabled API_AVAILABL v I 7LE(ios(11.3));
/**
运行环境纹理的模式。
@discussion 如果设置,纹理信息将被积累和更新。向会话添加一个AREnvironmentProbeAnchor
将获得当前环境纹理从探测器的角9 . D 33 . E * 5 r可以用来照明
场景中的虚拟对象。默认为AREnvironmentTexturingNone。
*/
@property (nonatomic, assign) AREnvironmentTexturing environmentTexturing API_AVAIY 4 0 | P ] YLABL, ? P r X xE(ios(12.0));
/**
确定环境纹理是否具有高动态范围。
默认启用。
*/
@prw q t w 0opeE ` 6 s f BrtV 7  t U yy (nonatom@ + h L v E Uic, assign) BOOL wantsHDREnvironmentTextures API_AVAILABLE(ios(13.0));
/7 R ^  L**
场景中要检测的飞机类型。
@discuss~ 9 = _ f w 7 2ion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为X F ARPlaneDetectionNone。
*/
@property (nonatX k u 4 S k :omic, assign) ARPlaneDetection planeDetection;
/**
世界跟踪将定位和跟踪的物理空间的9 L K初始地图。
@discussion 如果设置了,会话将尝试本地化到提供的映射
在本地化成功或再次运行之前,将调用有限的跟踪状态
指定了不同的(或没有)初始映射。一旦本地化,地图将被扩展
并且可以在会话中使用' getCurrentWorldMap '方法再次保存。
*/
@property (nonatomic, strong, nullable) ARWorldMap *initialWorldMap API_AVAILABLET D 2 i(ios(12.0));
/**
在场景中检测图像。
@discussion 如果设置,会R [ }话将尝试检测指定的图像。当检测到一个图像时,ARImageA, I j | p 7 *nchor将被添加到会话中。
*/
@property (nonatomic, copy,9 9  J w M v T ( null_resettable) NSSet<ARReferenceImage *> *detectionImages API_AVAILABLE(ios(11.3));
/*z R 3 % O*
启用9 T 2可用于校正图像的物理大小的比例因子的估计。
@discussion 如果设置为true,z [ V l w ^ { d Aw p j d : W o ; FRKit将尝试使用计算过的摄像机位置来计算给定物理大小所对应的比例
与估计的不同。关于估计比例尺的信息可以在ARImageAnchor上找到estimatedScaD L Q mleFactor属性。
@note 当设置为true时,返回的ARImageAnchor的转换将X { H ` T 0使用估计的比& K  h例因子来修正转换。默认值是NO。
*/
@property (nonatomic, assign)0 M @ BOOL automaticImageSy a l z 1 V I 4 gcaleEstimationEnabled API_AVAILABLE(ios(13.0));
/**
同时跟踪的最大图像数。
@discussion 设置跟踪图像的最大数量将限O A & ( % f v a .制给定帧中可以跟踪的图像的数量。
如果看到的图像超过最大值,则只有已经被跟踪的图像将继续跟踪,直到丢失跟踪或删除另一个图像为止。
不管跟踪的图像是什么,图像都将继续被检测到。默认值为0。
*/
@pa 3 $ F d 6 Xro# d v  ^ R $ Vperty (nonatomic, assign) NSInteger maximumNumberOfTracked; c Z ? n n @Images API_AVAILABLE(ios(12.0));
/**
要在场景中检测的对象。
@discussion 如果设置,会话将尝试检5 , { 0 s R测指定的对象。当检测到一个对象时,ARObjectAnchor将被添加到会话中。
*/
@property (nonatomic, copy) NSSet<ARReferenceObject *> *detectionObjects API_AVAILABLE(ios(12.0)Q { 8 2 ] V ?);
/**
启用/禁用协作会话。默认情况下禁用。
@discussion 当启用时,ARSessiO L con将使用其委托didOutputCo= Y H 8 ? ?llaborationData为其他参与者输出协作数据。
调用者的职责是将数5  ` V (据发送给每个参与者。当一个参与者接收到数据时,它
应该通过调用updateWithCollaborationData传递给ARSession。
*/
@property (nonatomic, assign, getter=isCollaborationEnabled) BOOL collaborationEnabledj  a N 1 ` API_AVAILABLE(ios(13.0));
/**
指示是否可以在此设备上启用使用前置摄l a I  } #像头的用d o 9 C b O / G户脸部跟踪。
*/
@property (class, nonat~ i w C I $ ( % fomic, readonly) BOOL#  v n p t O 8 supportsUserFaceTracking API_AVAILABLE(ios(13.0)j - E g j ?);
/**
启用或禁用运行面部跟踪使用前置摄像头。默认情况下禁用。
当启用时,ARSession会检测人脸(如果在前置摄像头图像中可见),并将其添加到锚点列表中,t e ;N G l q G H m O 5示每~ W N 3 f 7个面的ARFaceAnchor对象。
@discuQ V p Vssion ARFaceAnchor { * C 4 ] E i象的变换将在世界坐标空间中进行: I . # M W 。
@see ARFaceAnchor
*/
@property (nonay l _ U = Ktomi] : d  x 4c, assign, getter=userFaceTrackingEnabled) BOOL userFaceTrackingEnabled API_AVAILABLE(ios(13.0));
- (instancetype)init;
+ (insW N ) b & } z Gtancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.4.2 ARWorldTrackingConfigura ` m 8 7 – Vtion 属性, 方法说明
  • 创建一个配置:
  1. init() : 初始化一个新的世界跟踪配置。
  2. var initialWorldMap: ARWorldMap?: 试图使用此会话配置恢复前一个AR会话的状态。
  • 跟踪表面:
  1. var planeDetection: ARW8 q W EorldTrackingCo- k w . m 1 knfiguration.B 9 } Y + $ l |PlaneDetection :一个值,指定会话是否以及如何自动尝试检测摄像机捕获的图像中的平i % ? h Z x Q I面。
  2. struct ARWorldTi y 6 ? p Z q - =rackingConfiguration.PlaneDetectioo m V x 7 9 In: 选择` = / w $ ] X t e是否和如何检测捕获的图像平面。
  3. var sceneReconstruction: ARConfiguration.SceneReconstruction: 使场景重建成为可能的标志。
  4. class func supportsSceneReconstruction(l K V L } bARConfiguration.SceneReconstruction) -> Bool: 检查设备是否支持场景重建。
  • 检测或跟踪@ * p图像:
  1. var detectionImages: SetD D r Y<ARReferenceImage>!: ARKit试图在用户环境中检测的一组图像。
  2. var maximumNumberOfTrackedImages: Int : 用于同时跟踪运动的检测图像$ J # | 7的最大数目。
  3. var automaticImageScaleEstimationEnabl) k s N - . w q #ed: Bool : 一个标志,指示ARKit估计和设置一l : r s ^ 6个检测或跟踪图像的规模代表您7 | r = n G W *
  • 检测3D对象:
  1. var detectionObjects: Set<ARReferenceObjecw _ B J ~ } R .tq Z $ * ( 6 j>: 一组用于ARKit尝试在用户环境中检测的3D对象。
  • 跟踪用户的脸:
  1. var userFaceTrackingEnabled: Bool: 一Q P J 8 个标志,它决定ARKit是否在一个世界跟踪会话中跟踪用户的脸。
  2. class var supportsUserFaceTracking: Bool:一个布尔值,告诉你iOS设备是否支持在世p C : f . J z E {界跟踪会话期间跟踪用户的脸。
  • 创建现实反射:
  1. var envira 2 }onmentTexturing: ARWorldTrackingConfiguration.En E J i s v mvironment@ j _Texturing: 行为ARKit用于生成环境纹理。
  2. enum ARWorldTrackingConfiguration.EnvironmentTexturing: 在世界Y f )跟踪AR会话中生成环境纹理的选项。
  3. class AREnvironmentP_ W B S 4 : | lrobeAnchor : 在世界跟踪AR会话中为特定空间区域提供环境照明信息的对象。
  4. var wantsHDREnvironmentTextures: Bool : 一个标志,指示ARKit创建HDR格式的环境纹理。
  • 管理设备摄像头行为:
  1. vC ` O p uar isAutoFocusEnabled: Boolf e { L 3 ] : 一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。
  • 允许多用户协作_ * Y r u L = L C:
  1. var isCollaborationEnabled: Bool: 一个标志p f fz S + U选择你在一个点对点多用户增强现实的经验。

3.3.5 AROrientationTrackinI Q : O Z R o LgConfiguration

  • AROrientationTrackingConfigurat7 C % 6 / a ] k Eion :使用后置摄像头只跟踪设备的方向。当你只想使用设备的后置摄像头跟踪设备的方向时,你使用此AROrientationTrackingConfiguration配置即可。
class AROrientationTrackingConfiguration : ARConfN 7 I j iguration

: o ? } 4AR配置都建立了设备所在P | 0 ( , – x {的真实世界与虚拟3D% c q B , I坐标空间之间的对应关系,在虚拟3D坐标空间中可以对内容进行建模。当你的应用程序将这些内容与实时的摄像头图像一起显示时,用户会产生= v q d S j _一种错觉,认为你的虚拟. Z N O 2内容是现实世界的一部分。

创建和维护空间之间的这种对应关系需要跟踪设备的移动。AROrientationTrackingConfiguration类使用三个自由度(3DOF)来跟踪设备的移动:具体来说,就是三个旋转轴(滚动、俯仰和偏航)。

ARKit3.5  框架学习 (一)核心类简介(上)

这种基本级别的运动跟踪可以创建有限的AR体验:一个虚^ N Z b A } ? W拟对象可以看起来是现实世界的一部分,即使用户旋转设备查看该对象的上面、下k w Y ~ A面或旁边。然而,这种配置不能跟踪设备的移动:非琐碎地改变设备的位置会打破AR错觉,导致虚拟内容相对于真实世界M e x o @ J出现漂移。例如,用户不能四处走动查看虚拟对象的侧面和背面。此外,3DOF跟踪不支持平面检测或命中测试。

因为3DOF跟踪创建有限的AR体验,你通常不应该直接使用AROrientationTr2 m L t B R = YackingConfiguration类。相反,使用ARWorldTrackingConfiguration进行6自由度的平面检测和命中测试。仅在6DOF跟踪暂时不. m | 4 ; 1 s ; 6可用的情况下,使用3DOF跟踪作为备份。

3.3.5.1 AROrientationTrackingConfiguration 类定义
ARKit3.5  框架学习 (一)核心类简介(上)

AROrientationTrackingConfiguration 类定义

/**
用于运行方向跟踪的配置。
@discussion 定位跟踪提供了3个自由度的设备跟踪。
*/
API_AVAILABLE(ios(11.0))
@interface AROrientationTrackingConfi ( x l s m @ z Oguration : ARConfiguration
/**
启用或Q 7 E ? k R w )禁用连续自动对焦。
@discussion 默认启用
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled API_AVAILABLE(ios(K r * J 011.3));
- (instancetype)init;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init(M T k) instead");
@end
3.3.5.2 AROrientationTrackingConfiguration 属性方法说明
  • 创建一个配置:
  1. init() : 初始化一个新的方向跟踪配置。
  • 管理设备摄像头行为:
  1. var isAutoFocuy c - L A vsEnu 1 O [ 9 ? ] ? 6abled: Bool: 一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。

3.3.6 ARImageTrackingConfiguration

  • ARImagk p P / I p e 8eTrackingConfiguration :通过使用设备的后置摄像头跟踪图像,只跟踪已知的图像。当你只是想t z 9 = A ] 9 ` r要跟踪已知的图像使用设备的后摄j i _ u q ~ j像的数据时使用ARImageTrackingConfiguration 配置。
class ARImageTrackingConfiguration : ARConfiguration

所有AR配置都建立了设备所在的真实世界与虚拟3D坐标空间之间的对应关系,在虚拟3D坐标空间中可以对内容进行建模。当你的应用程序将这些内容与实时的摄像头图像一起显示时,用户会产生一种错2 ) ] ! G觉,认为你的虚拟内容是现实世界的一部分。

通过ARImageTrackingConfigurb s H g X n ` x 6atio/ W X 1 x # 7 = 3n , ARKit不是通过跟踪设备相对于& $ 0世界的运动来建立一个3D空间,而是仅仅通过检测和跟踪已知的二8 A . }维图像在摄像机中的运动。ARWorldTrackingConfiguration也可以检测图像,但每种配置都有自己的优势。ARImageTrackingConfiguration 的特点如下 :

  • 与只跟踪图像相比,世界跟踪具有更高的性能成本,因此您的会话可以使用ARImageTrackingConfiguration一次可靠地跟踪更多的图像。
  • 只跟踪图像,让您锚虚拟内容到已知的图像,只有当这些图像是在相机的视野。世界跟踪与图像检测允许您使用已知的图像添加虚拟内容到3D世界,并继续跟踪该内容在世界空间的位置,即使图像不再在视图中。
  • 世界跟踪在稳定、静止的环境中效果最好。您可以在更多的情况下使用图像跟踪将虚拟内容添加到已知的图像中——例如,在移动的地铁车厢内的广告。

当图像跟踪配置检测到已知的图像时,它] I B 8将以6个自由度(6DOF)跟踪它们的移动:具体来说J 9 | v X C,就是3个旋X M X转轴(滚动、俯仰和偏航)和3个平移轴(xyz的移动)。

要使用ARImageTrackingConfiguration,请定义ARReferenceImage对象(在运行时或通过将它们绑定到Xcode资产目录中),并将它们分配给配置的trackingImages属性。然后,与任何AR配置一样,将配置传递给会话的run(_:options:)t # U ` ? + +方法。

3.3.6.1 ARImageTrackingConfiguration 类定义
ARKit3.5  框架学习 (一)核心类简介(上)

ARImageTrackingConf8 C = Y 7 Siguration 类定义:

/**
运行图像跟踪的配置。
@discussio* , 5 z { p # E #n 图像跟踪提供6个自由度的跟踪已知图像。可以同时跟踪四幅图像。
*/
API_AVAILABLE(ios(12.0))
@interface ARImageTrackingCz 7 s x | T ; b [onfiguration : ARConfiguration
/**
启用或禁用连续自动对焦。
@discu@ 4 o 0 j Y _ Q Qssiod x c ^ H 2 kn 默认启用
*Z % d U h ( y/
@property (nonatomic, assign, getter=isAutoFocusEnabled) BOOL autoFocusEnabled;
/**
在场景+ a b中跟踪图像。
*/
@proper: ~ }ty (nonatomic, copy) NSSr *  P h v p Set<ARReferenceImage *> *trackingImages;
/**
同时跟踪的最大图像数。
@discussionX & D s 设置跟踪图像的最大数量将限制给定帧中可以跟踪的图像的数量。
如果看到的图像超过最大- O w K : 5 ? W值,则只有已y 0 B F b Q ` F W经被跟踪的图像将继续跟踪,直到丢失跟踪或删除| % e L O X T另一个图像为止。
默认值为1。
*/
@property (nonatomic, assign) NSInteger maximumNumberOfTrackedImages;
- (instancetype)ini^ ! e @ ~ ^t;
+ (instancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.6.2 AR# ] x V ) )ImageTrackingConfiguration 属性说明
  • 创建一个配置:
  1. init(): 初始化一个新的图像跟g 0 v e Z `踪配置。
  • 选择图像进行跟踪:
  1. var trackingIu # Y ! g a T D ]mages: Set<ARReferenceImage> : ARKit试图在用户环境中检测和跟踪的一组图b & 像。
  2. var mv [ v U ~ f GaximumNumberOfTrackedImages: Int : 要同时跟踪运i – p w N q i 动的图像的最大数目。
  • 管理设备摄像头行为:
  1. var isAutoFocusEnabled: Boolw 0 C } ?: 一个布尔值,用 J o于确定设备摄像头是使用固定焦距还是自动焦距。

3.3.7 ARObj; W + U & ! ectScanningConfiguration

  • ARPositionalTrackingConfiguration :只跟_ 8 S m F o踪设备在三维空间中的位置。用g 6 !于收集物理环境中真实对象的高保真空间数据的配置。
class ARObjectScanningConfiguration : ARConfiguration

要创建一个识别物理环境中的对象的应用程序:

  1. 首先要在开发期间使用ARM h U o t + d | /ObjectScanningCon| 5 + ` /figuration扫描它们。
  2. 扫描对象之后,调用 createReferenceObjec( V f 2 c @t(transform:center:] ` 9extent:completionHandler:) 其转换为一个可以在运行时再次检测它的ARReferencef } r n e TObjeJ % )ct。
  3. 当用户运行你的应用程序` H . x 6 p x [ k时,你要求ARKit通过运行. n n L L u ! H S一个世界跟踪配置来寻找你扫描的物体,并将引用对象分配给它的detectionObjects属性。

ARObject2 l U v r $ScanningCoJ N a p o e j wnfiguration仅用于开发场景。由于对象扫描所需的高保真空间映射具有较高的性能和能量消Q M o = x | + o c耗,因此禁用了许多对象扫描不需要的ARKit特性。

3.3.7.1 ARObjectScanningConfiguration 类定义
ARKit3.5  框架学习 (一)核心类简介(上)

ARPositionalTrackingC` Z ~ C i 9 , ronfiguraZ n | T c htion 类定义:

ARObjectScanningConfiguration

/**
扫描对象的配置。
@dO 7 p %iscussion 对象扫描配置运行世界跟踪,捕获额外的细节以创建引用对象。
运行对象扫描将消耗额外的能量,以提供更详细的功能。
可以在会话中调用createReferenceObject方法来捕获世界中对象的扫描。
*/
API_AVAILABLE(ios(12.0))
@interface ARObjectScanningConfigu; N B # ~ Tration : ARConfiguration
/**
启用或] # :  @ t ej . l用连续自动对焦。
@discussion 默认开启.
*/
@property (nonatomic, assign, getter=isAutoFocusEnabled)T 3 * E a j BOOL autoFocusEnabled;
/0 ! F N C L ` W**
场景中要检测的飞机类型。
@discussion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPl J O 2 X xaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPlaneDetectionNone。
*/p L R Z ^ G D D .
@property (nonatomic, assign) ARPlaneD- C c i aetection planeDetection;
- (ins2 B S U ltancetype)init;
+ (instancetype)ne% _ ]  6 M t g Zw NS_SWIFT_UNAVAILr r . ; R y T 3ABLE("Use init() instead");
@end
3.3.7.1 ARObjectScanningConfiguration 属性说明
  • 创建一个c I j G g # v d c配置:
  1. init() : 初始化一个新的对象扫描配置。
  • 使飞机检测:C _ b b
  1. var planeDetection: ARWorldTr^ [ d 0 0ackingConfiguration.PlaneDetection : 一个值,指定会话是否以及如何尝试自动检测摄像机捕获的图像中的平面。
  2. struct ARWorldTrackingConfigurati9 _ ) )on.PlaneDetection : 选择是否和如何检测捕获的图像平面。
  • 管理设备摄像头行为:
  1. var isAutoFocuD Z V f 5 usEnabled: Bool : 一个布尔值,用于确定设备摄像头是使用固定焦距还是自动焦距。

3.3.. f 8 w c 0 D U8 ARPositionalTrackingConfiguration

  • ARPositionalTrackingConfiguration: 当您只想跟踪设备在空间中的位置时使用的配置。
class AM O d 8 _ XRPositionalTrackiv f U Q q R / GngCQ h E B %onfiguration : ARCo& 4 / y } Z Onfiguration

通过以尽可能低的分辨率和帧速率运行摄像头w b , a k I o W,支持iOS设备的6个自由度跟踪。当您不需要解析摄像机提要(例如,虚拟现实场景)时,请使用此配置。

3.3.8.1 ARPositionalTro P g } 6 ; 3 IackingConfiguration 类定义
ARKit3.5  框架学习 (一)核心类简介(上)
/**
用于运行位置跟踪的配C &  ` & # ? r置。
@discussion 通过以尽可能低的分辨率和帧速率运行摄像机,位置跟踪提供了6] _ w V个自由度的设备跟踪。
*/
API_AVAILABLE(ios(13.0))
@interface ARPositiona| @ 7 /  Z 6lTracking} S ? C uConfiguration : ARConfiguration
/**
场景中要检测的飞机类型。
@discu/ H ] 1ssion 如果设置,新的飞机将继续被检测和更新的时间。检测到的平面将被添加到会话中
ARPlaneAnchor对象。如果两个平面合并,则新平面将被删除。默认为ARPl- : L C /aneDetectionNone。
*/
@property (nonatomic, assign) ARZ ~ n y 1 x k #PlaneDetection planeDetection;
/**
世界跟踪将定位和跟踪的物理空间的初始地图。
@discussion 如果设置了,会话将尝试本地化到提供的映射
在本地化成功或再次运行之前,将调用有限的跟踪状态
指定了不同的(或没有)初始映射。一旦本地化,地图将被扩展
并且可以在会话中使用' getCurrentWorldMap '6 y E - p h方法再次保存。
*/
@property (nonatomic, stS Y `  irong, nullable) ARWorldMap *initialWorldMap;
- (instancetype)ina a 9ito X i;
+ (insZ ? M ( n x  W ,tancetype)new NS_SWIFT_UNAVAILABLE("Use init() instead");
@end
3.3.8.2 ARPositionalTrackingConfiguration 属性
  • 创建一个配置:
  1. init():创建一个新的位置跟踪配置。
  2. var initialWorldMap: ARWorldMap?: 试图使用此会话配置恢复前一8 * 9 w个AR会话的状态。
  • 检测真实的表面:
  1. var planeDetection: ARWorldTrackingConfiguratio~ v ! 2 x ; ? yn.PlaneDetection : 一个值,指定会话是否以及如何自动尝试检测摄像机捕获的图像中的平面。

3.3.9 ARKit 坐标系

ARKit 使用笛卡尔坐标系度量真实世界。ARSession 开启时的设备位置即是坐标轴的原点。而 ARSessionCu C Z ` O ]onfiguration 的 worldAlignment 属性决定了三个坐标轴的方向,该属性有三个枚举值:

  • ARWorldAlis ( % A ) + EgnmentCat g ] U zmera: _ [ n 7 Z
  • ARWorldAlignmeP K q + (ntGravity
  • ARWorldAlignm; , z M L yentGravityAndHeading

三种枚举值对应的坐标轴~ ? n X ]如下图所示:

ARKit3.5  框架学习 (一)核心类简介(上)

对于 ARWorldAliI F | g ) 5 C 1gnmentCamera 来说,设备的姿态决定了三l | % } [个坐标轴的方向。这种坐标设定适用于以设备作为参考系的坐标计算,与真实地理环境无关,比R E e d I D如用 AR 技术丈量真实世界物体的尺寸。

对于 ARWorldAlignmentGravity 来说,Y 轴方向始终与重力方向# 5 a ! e S i平行,而其 X、Z 轴方向仍然由L u 6设备的姿态确定。这种坐标设定适用于计算拥有重力属性的物体坐标,比如放置一排氢气球,或者执行一段篮球下落的动画。

对于 ARWorldAlignmentGravityAndHeading 来说,X、Y、Z 三轴固定朝l u :向正东、正上、正南。k 1 J H t t E ! 1在这种模式下 ARKit 内部会根据设备偏航角的朝向与地磁真北(非地磁北)方向的夹角不断地做出调整,以确保 ARKi| ? 8 N pt 坐标系中 -Z 方向与我们真实世界的正北方向吻合。有了这个前提条件,真实世界位置坐标才能够正确地映射到虚拟世界中。

3.4 ARCamera

  • ARCamera: 关于给定帧的摄像机位置和成像特性的信息。
claG u 4 D =  2ss ARCamera : NSObject

您可以从ARFrame ARKit交付的每个相机属性中获得相机信D N I i n息。

3.5q H c ARHitTestResult

  • ARHitTestResult:O q 6 2 o [ 通过检查屏幕上的一个点发现的关于真实世界表面的信息。

如果你使用Sces : 5 + Q ? yneKit或 SpriteKit作为你的~ I M D I q l @渲染器,你可以使用以下命令在屏0 ~ g k 4 x Y +幕上搜索真实世界的表面:
ARSCNView hitTeF s ( * G T ) {st(_:types:): 在捕获的摄像机i p + * v + 8图像中搜索与SceneKit视图中某个点对应的真实对象或AR锚点

ARSKView hitTest(_:types:): 在捕获的相机图像中搜索与 SpriteKit视图中某个点相对应的真实对象或AR锚点。

Hit测试通过AR会话对摄像机图像的处理来搜索现实世界中的物体或表面。在视图的坐标系统中,2D点可以指从设备摄像机开始并沿着由设备y ` Q % 1 @ k c方向和摄像机投影决定的方向延伸的3D线上的任何点5 y J } k g。这个方法沿着这条线搜索,返回所有与它相交的物体,按与摄像机的距离排序D N ( 2 v ? Y D

class ARHitTestResult : NSObject

3.6 ARLightEstimate

  • ARLightEstimate:AR会话m { w U中与捕获的视频帧相关] 9 a的估计场景照明信息。
class ARLighU v a p !tEst3 Y wimate : NSObject

3.7 ARPointCloud

  • ARPointCloud: AR会话的世界坐标空间中的点c i J [ B的集合。
class ARPointCloud : NSObject

使用ARFrame rawFeaturePoints属性获得一个点云,表示ARKit用于执行O d Z = ) { v世界跟踪的场景分析的中间结果。

3.8 ARReferenceImage

  • ARReferenceImage:您希望ARKit在物理环境中检测的图像的描述。
class ARReferenceImage : NSObject

为了在真实世界中准确地检测二维图像的1 V E . =位置和方向,ARKit需要预处理的图像数据和图像的真实世界尺寸的知识。ARReferenceIm` U 0 D page类& U C j 7 c h E u封装了这些信息。要在AR会话中启用图像检测,请将一组参考图像传递到会话配置的detectionImages属性。

3.9 ARReferenceObject

  • ARReferenceObject:您希望ARKit在AR会话期间在物理环境中查找的真实对象的描述。O 6 z Z
class ARReferenceObject : NSObject

ARKit中的对象检测允许您在会话识别已知的3D对象o V A时触发AR内容。例} . / E L s }如,您的应用程序可以检测艺术博物馆中的雕塑并提供一个虚拟馆长,或检测桌面游戏人物并为游戏创建视觉效果。

要提供一个已知的3D对象检测,你扫描一个现] * 3 ;实世界的对象使用ARKit:

  1. 使用ARObjectScanningConfiguration运行AR会话,以启用高保真空间映射数据的收集。. ? I I T
  2. 在这个过程中,将设备摄像头从不同的角度对准真实世界的物体,这样ARKit就可以建立物体及其周围环境的内部地图。有关引导用户交互生成良好扫描数据的示例,请参见扫描和检测3D对象。

3.10 AF ) 6RVideoFormat

  • ARVideoFormat: 一个视频大小和帧速率规格,用于AR会话。
@interface ARVideoFormat : NSObH g & K ]ject

这个类是不可变的;要设置AR会话的帧速率和视频分辨率,请将配置的videoFormat属性设置为supportedVideoFormats数组中的一种格式。

3.11 ARCollaboraL M : P 5tionDa[ u G R i a M 6ta

  • ARCollaborationData:保存用户收集的关于物理环境的信息的对象。
@interface ARCollaborationData : NSObject

要创建多用户增强现实体验,您可以在世界跟踪会话上启用协作。ARKit会定期输出用户之间共享的 ARCollav F V { H 2 U SborationData,这使得每个人都可以从自己的角度查看相同的虚拟内容。有关更多信息,请参见启用collaborationEnabled。

3.12 ARWorldMat 2 3 gp

  • ARWorldMap: 空间映射状态和一组来自世界跟踪c } x 3 L $ WAR会话的锚点。
class ARWorldMap : NSObject

会话状态的世界地图包括ARKit意识的物理空间的用户移动设备(Ap [ _ 3 NRKit用于确定设备的位B h 7 , b * ^ ) E置和方向),以及任何ARAnchor对象添加到会话(可以表示检测到现实世界的特性或虚拟内容的应用程序)。

3.12.2 ARWorldMap序列化和反序列化世界地图:

当您的应用程序退出时,您可以保存当前的世界地图(使用getCurrentWorldMap(comple| * B X 3tionHandler:)获取)。因为ARWorldMap符合NSSecureCoding,所以您使用NSKeyedArchiver序列V 0 $ H R化它。

func writeWorldMap(_ worldMap: ARWorldMap, to url: URL) throwsS ~ _ X Z a t {
let data = try NSKeyedArg 8 ^ F b ~ X Tchiver.archivedData(withRootObject: worldMap, requiringSecu{ V !  { -reCoding: true)
try data.write(to: url)
}

要在应用程8 k . V 6 J ` P序下次启动时恢复世界地图,请使用NSKeyedUnarchiver。

func loadWorldMap(from url: URL) throws ->T v =; ARW. O @orldMap {
let mapData = try Data(contentsOf: u4 2 q + e O Yrl)
guard let we s 4 yorldMap = try NSKeyedUnarchiver.unarchivedOk + - F 8 - bject(ofClass: ARWorldMap.self,s = t from: mapData)
else { throw ARError(.invalidWorldMap)[ d U s 2 M E p | }
return worldMap
}

如果应用程序在相同的物理环境中启动,您可以使用恢复的世界地图中的锚来将相同的虚拟内容放在保存的会话中的相同位置。
有关更多信息,请参见保存和加载5 4 P世界数据。

3.12.3 ARWorldMap共享保存的世界地图

有了两个* b * ] 1跟踪相同世界地图的i D U u , v设备,您就可以构建一个网络体验,两个用户都可以看到相同的虚拟内容并2 ~ g A s q $ j G与之交互。将ARWorldMap发送R g H $到另一个设备,为多用户AR体验创建一个共享的参考框架:

步骤如下:

  1. 在一个设备上,使用NSKeB ` D 5 7 X MyedArchiver 将世界地图转换为数据对象。(你不需要把数据写8 l 4 6 f ! v到一个文件中,然后通过网络发送。)
  2. 使用您选择的网络技术将结果数据发送到另一个设备。(例如,在一个MultipeerConnectivity会话中,调用send(_:toPeers:withb ( P:)来发送数据,并在另一个设备上实现MCSessionDelegate方法来接收数据。)
  3. 在接收设备上,使用NSKeyedUnarchiver 从数据中反序列化一个ARWorldMap。

有关更多信息,请参见创建多用户增强现实体验。

3.12.4 ARWorldMap运行反序列化的世界地图

要从现有的ARWorldMi J G u : ^ 5 i %ap开始新会话,请设置一个世界跟踪i p u s ] Y配置的initialWorldMap属性并使用run(_:options:)。这将启动一个新的会话,S 4 P K 9使用相同的空间感知和从保存的世界地图加载的锚。

3.12.4.1 ARWorl| P U idMap相关函数介绍
  • run(_:opti= S ? ] 3 U lons:): 是ARSession的一个L J q d B i W实例方法,用来使用指定的配r g T 7置和选d / 1 r P项启动会话的AR处理。它的定义如下:
func run(_ configuration: ARConfiguration,
optio3 9 X 4 d Z Zns: ARSession.RunOptions = [])

参数说明:

  1. configuration:为会话定义运动和场景] j 3 ! V l V跟踪行为的对象。
  2. option? M 4 - ? e , 7s: 影响现有会话状态(如果有的话)如何转换到新配置的选项。
    如果会话是第一次运行,则此参数无效。

会话跟踪设备运动,捕获并处理来自设备摄像头的场景图像,并仅在运行时与您的委托对b ; y T – V x #象或ARSCNView或ARSKView视图进行协调。

在已经立即开始过渡到新会话配置的会话上调用此方法。optio{ @ ^ Ans参数确定现有会话状态如何转换到新配置。默认情况下,会话从最后一个已知状态恢复设备位置跟踪,并保留会话中已经包含的所有锚点(那些您使用add(anchor:)手{ L l L 2 = 1 /动添加的锚点,以及那些由ARKit特性(如平面检测或人脸跟踪)自动添加的锚点)。

3.13 ARRaycastQuery

  • ARRaycastQuery: 一种数学射线,你可以用它来找到真实世界表面的三维位置。
class ARRaycastQuery : NSObject

您可以通过提供3D向量和起始位置来创建一个C J u 9raycast查询。
要使用2D屏幕位置和用户向z方向投射的默认向量来创建一个raycast查询,可以使用ARView上的 makeRaycastQuery(from:allowing:alignment:)或ARSCNView上的raycastQuery(from:allowing:alignment:)这两个方便的函数。
光线投射可以与平面(平面)或网格(不平整的表面)相交。若要与平面相交,请参见ARRaycastA $ H QQuery.Tax y ] @ nrget。若要与网格相交,请参见ARRaycastQuery.Target.estimatedPlane。

3.14 ARTrackedRaycd * V n y } 4 q hast

  • ARTrackedRaycast:ARKit会连续重复一个raycast查询,从而随着时间的推移提供^ ; a . p更精确的结果。
class ARTrackedRaycast : NSObject

跟踪射线投射通过连续地重复3D位置5 h (的查询来改进命中测试技术。ARKit为您提供了一/ I Y ] b 3 s个更新的位置,随着时间的推移,它完善了它对世界的理解。
要启动一个被跟踪的raycast,你需要q # h在你的应用_ U B程序的当前ARSession上调用trackedR$ w Z Y 8 5aycast6 * D – A(_:updateHandler:)。

3.15 ARi # sRaycastResul] K ; . q j 5 7t

  • ARRaycastResult:通过检查屏幕上的一个点V ! # N发现的关于真实世界表面的信息。
class ARRaycastResult : NSObject

如果您使用ARView或ARSCNView作为您的渲染器,您可以分别使用 raycast(from:allowing:alignment:)和 raycastQuery(from:allowinS g p M 0 B 7 – Wg:alignment:)函数在屏幕上搜P r – E L : 2 J索真实世界的表面。
如果你使用自定义渲染1 Z f ?器,你可以找到现实世界的位置使用屏幕点:R U 1
ARFrame的 raycastQuery(from:al] ^ A @ hlowing:alignment:)函数。
ARSession的raycast(: o % / ? ?:)函数。
对于被跟踪的光线投射,你在你的应用程序的当前ARSession上调用trackedRaycast(
:updateHandler:)。

3.16 ARAnchor

  • ARAnchor: 物理环境中某物的位置和方向。
class ARAnchR @ - i 6or :L T W j 8 : n T NSObject

^ m .跟踪D W E z真实或虚拟对象相对于摄像机的静态位置和方向,请创建锚对象并使用add(anchor:)方法将它们添加到AR会话中。

在会话中添加一个锚点可以帮助ARKit优化该锚点周围区域的( 7 P P 世界跟踪精度,从而使虚拟对象看起来与真实世界保持一致。如果虚拟对象移动,则从旧位置移除相应的锚,并在新位置添] f N $ %加一个锚。

一些ARKir s ! T L g Mt特性会自动向会话添加特殊的锚。如果启用了相应的功能,世界跟踪会话可以添加ARK E 6 R x { x 6PlaneAnchor、ARObjectAnchor和ARImageAnchor对象;面部跟踪会话添加ARFaceAnchor对象。

3.16B Y . k l o ] F.1 子类简介

除了创建自己的ARAnchor实例来跟踪虚拟内容的实际Y | 6 ~ K位置之外,– T ` E S还可以子类化ARAnchor来将自定义数据与创建的锚关联起来。T g V –确保你的锚类在ARKit更新帧或保存并加载ARWorldMap中的锚时行为正确:

  • 锚子类必须满足ARAnchorCopying协议的要求。ARKit调用init(锚:)(在一个后台线程上)来将锚类的实例从一个ARFrame复制到下一个ARFrame。此初始化器的实现应复制子类添加的任何自定义属性的值。
  • 锚子类也必须采用NSSecureCod! F q + e p Ping协议。重写encode(with:)和init(coder:)来保存和恢复您P t ` V X B % Q L的子类自定义属性的值,当ARKit将它们保存并加载到一个世界地图中时。y I y k m
  • 锚点根据其标识符属性被认为是相等Q q s ^的。
  • 当您保存世界地图时,只有不采用可跟踪的锚点(ARTrackable )才会被包括在内。

3.16.2 ARTrackable

  • ARTrackable: 一个真实世界的对t M o z = ]象,在一个场景I x z + R B k中,ARKit跟踪位置和方向的变化。
protocol ARTrackable

这个协议被ARKit类所采用,比如ARFaceAnch2 B D 9 i L k [or类,它表示场景中移动的对象。

ARKit在一个活动的AR会话中自动管理这些对象的表示,确保真实世界中对象的位置和方向(锚的trr S h [ bansform属性)的变化反映在相应的ARKit对象中。isTracked属性指示当前转换对于实际对象的移动是否有效。

可跟踪的锚类影响其他ARKit行为:

  • getCurrentWorldMap(compW j _ a z F ( KletionHandler:)方法自动在其创建的ARWorldMap中只包含不可跟踪的锚点。(创建世界地图后,可以Z S – E t选择添加其他锚点。)
  • ARSCNView和ARSKView自动隐藏isTracked属性为falseC u ?的锚节点。
  • World-tracking会话使用不可跟踪的锚点来优化每个锚点周围区域的跟踪质量。可跟踪的锚不影响世X O 7 /界跟踪。

3.17 AREnvironmentProbeAnchor

  • AREnvir7 ~ R = t onmentProbeAnchor:在世界跟踪AR会话中为特定空间区域提供环境照明信息的对象。
class AREnvironmentPro- Z = $ !beAnchor : AR2 - ^ V 8 E L T ]Anchor

环境纹z M w b J U F理描述了场景中特定点的各个方向的视图。在三维资产渲染中,环境纹理是基于图像的照明算法的基础,其中表面可以真实地反射Q a @来自其周围环境的光。n p [ J lARKit可以在AR会话期间使用摄像机图像生成环境纹理,允许SceneKit或自定义! 5 L n Y e O 5渲染引擎为AR体验中的虚拟对象提供基于真实图像的` ] P q : } r e 5照明。
若要为AR会话启用纹理映射生成,请设置environmentTexturing属性:

  1. ARWor t F a L @ jldTrackingConfiguration.EnvironmentTexturing。手动环境纹理,你可以通过创建 AREnvironmentProbeAnchor 对象并将它们添加到会话中来识别场景中你想要的光探测纹理映射点。
  2. ARWorldTrackingConfiguration.EnvironmentTexturing。自动环境纹理,ARKit自动创建,定位,并添加 AREnvironmentProbeAnchor 对象到会话。

在这两种情况下,ARKit在会话收集摄像机图像时6 4 ) ~ O w D自动生成环境纹理。使用诸如session(_9 f O N:didUpdate:)这样的委托方法来n y m X n # N找出一个纹理何时可用,并从锚的environmentTexture属性访问它。
如果您使用ARSCNView和automatica1 U * F i R O XllyUpdat0 Y _ Q ,esLF F m Aighting选项来显示AR内容,SceneKit会自动检索AREnvironmentProbeAnchor纹理l % $ 0 H映射并使用它们来照亮场景。

3.18 ARFaceAnchor

  • ARFaceAnchor: 关于姿态、拓扑结构和面部表情的信息,ARKit在前置摄像头中检测到。
class ARFy ; 4 F ~ * 7aceAnchor : ARAnI V +chor

当会话在前置摄像头提要中检测到一个唯一的人脸时,它会自动将一f 0 S Y 个ARFaceAnchor:对象添加– T i % d o到它的锚点列表中。
当你使用ARJ l [ 0FaceTrackingConfiguration跟踪面时,ARKit可以同时跟踪多个面。

  • 跟踪面部位置和方向

继承的变换属性在世界坐标中描述人脸当前的位置和方向;也就是说,在与会话配置的worldAlignment属性指定的坐标空间中。使用这个M g N g变换矩阵来定位你想: $ u K 3 – d要“附 d C c H w v加”} X o ) B 1 ?到AR场景中的虚拟内容。
这个变换矩阵创建了一个面坐标系统,用于定位相对于面而言的其他元素。面坐标空间单位以米为单位,原点在面后居中,如下图所示。

ARKit3.5  框架学习 (一)核心类简介(上)

坐标系是右向的——正的x方向指向观察者的右边(! } q % Z也就是脸自己的左+ 9 ; % q边),正的y方向指向上(相对于脸本身,而不是世界),正的z方向指6 a r . | C P 5向外(指向观察者)。

  • 使用面拓扑:
    几何属性提供了一个ARFaceGeometry对象,该对象表示面部的详细拓扑结J m ~ h (构,该对象符合一个通用的面部模型,以匹配检测到的面部的尺寸、形状和当前表达式。
    您可7 s @ F 7以使E k , . a用这个模型作为基础,根据用户的面部形状覆盖内容—例如,应用虚拟化妆或纹身。你也可以使用这个模型来创建遮挡几何——一个不渲染u 8 M任何可见内容的3D模型(允许摄像机图像通过),但是它会阻碍摄像机在场景中看到其他虚拟内容。

  • 跟踪面部表情:
    blendShapes属性提供了当前面部表情的高级模型,该模型通过一系列指定的系数进行描述,这些系数表G 6 w j J % j d w示特定面部特征相对于其中5 t m ) f y ;性配置的移动。您可以使用混合形状系数使2D或3D内容 L * p & 8(如角色或阿凡达)具有动画效果,并遵循用户的面部表情。

3.19 ARFaceGeometry

  • ARFaceGeometry:描述人脸F = r } 2 @拓扑结构的三维网格,用于人脸跟踪AR会话。
cla O l 0 Hss ARFaceGeometry : NSObject

这个类以3D网格的形式为面部的详细拓扑提供了一个通用模型,适合用于各种呈现技术或导出3D资产。(使用SceneKit查看人脸几何图形的快速方法,请参见ARSCNFaceGeometry类。)

在人脸跟踪AR会话中,当您从ARFaceAnchoS l % F * S 2 j Zr对象获取人m – d [脸几何形状时,该模型将与被检测到的人脸的尺寸、形状和当前表达式相匹配。您还可以使用一个名为blend形状系数的字典来创建一个面部网格,它提供了面部当前表情的详细但更有效的描+ M + H S m A H述。

在AR会话中,您可以使用这个模型作为基础,根据用户的面部形状覆盖内容——例如,应用虚拟化妆或纹身。您还可以使用这个模型来创建遮挡几何图形,它K + e将其他虚拟内容隐藏6 C n X在摄像机图像中检测到的人脸的3D形状之后。

  1. 面网格拓扑在ARFaceGeometry实例中V – # x a W 6 x是常量。也就是说,vertexCount、textureCoordinateCount和triangleCount属性的值不会改变,triangleIndices缓冲区总是描述相同的顶点排列,而textureCoordinateCount缓冲区总是将相同的顶点索引映射到相同的纹理坐标。
  2. 只有顶点缓冲了AR会话提供的面网格之间的变化,表明顶点位置的变化,因为ARKit使网格适应用户的脸的形状和表情。i K j

3.20 ARImageAnc] U # bhor

  • ARImageAn7 * Y ~ n ~chor: 在世界跟踪ARI x r : v &会话中检测到的图像的位置和方向的信息。
class ARImageAnchor : ARAnchR ;  % % f + gor

当您运行一个world-tracking AR会话并} J / ; y V n为会话配置的detectionImages属性指定ARReferenceImage对象时,ARKit8 V 7 e 0 o B将在实际环境中搜索这些图像。当会话识别一个图像时,它会自动将每个检测到的图像的 ARImageAnchor 添加到它的锚点列表中。
要查找场景中已识别图像的范围,可以使用继承的transform属性和锚点的referenceImage的物理大小。

3.21 ARObjectAnchor

  • ARObjectAnchor:在世界跟踪AP _ A CR会话中检测到的真实三维对象的位置和方向! s b信息。
class ARObjec& + n B rtAnchor : ARAnchor

当您运行一个跟踪世界的AR会话并为会话配置的d% m v 9 3 K tetj S i 5 ( IectionObjects属性指定ARReferenceObject对象时,ARKit将在实际环境中搜索这些对象。当会话n K s # g Z M识别一个对象时,它会自动将每个检测到的对象的ARObjectL 5 _ 2Anchor添加到它的锚点列表中。
要放置与被检测对象的位置或大小匹配的虚拟3D内容,请使用锚点的继承trX * f T y u qansform属性以及锚点的refc w c l LerenceObject的中心和范围。

var detectionObjects: Set<t V 4 n w / v e;ARReferenceObject> { get set }

detectionObjects属性说明:

  1. d& } q /etectionObjectU ! A ,s是一组用于ARKit尝试在用户环境中检测的3D对象。
  2. 使用此属性可L H z为ARK3 ~ H : I Xit选择在用户环境中找到的已知3D对象,并将其呈现为ARObjectAnchor,以供在增强现实~ & W X / Z ! h C体验中使用。
    要创建用于检测的G : 5 E w P f引用对象,请在世界跟踪会话中扫描它们,V Q M w并使用ARWorldMap来提取ARReferenceObject实例。然后可以将引用对象保存为文件,并将它们打包到使用Xcode资产目录创建的任何ARKit应用程序中。

3.22 ARPartici@ f ` G X #panta $ % fAnchor

  • ARParticipanti R B 6Ancho6 ( m @ _ $r:表示多用户增B F P : ^ ; g强现实体验中另一个用户的锚。
cl( j _ {ass ARParticg : VipantAnchor : ARAnchor

当你将isCollaborationEnabled设置为true时,O D 3 O + ~ {ARKit会调用session(_:didAdd:),并为它在物理环境中检测到的每个用户提供一个ARParticipantAncx U F U u x } q ihor,C D J z L r X b W你提供他们的世界位置。

3.23[ Z m ^ Y z @ y ARPlaneAnchor:

  • ARPe f P : ? ) @ O xlaneAnchor:ARKit在物理环境中检测的2D表面。
class ARPlaneAnk e : ! O xchor : ARAnchor

当你在一个世界追踪会话中启用planeDetection时,ARKit会通知你的应用它通过设备的后摄像头观察到! u J ] _ d 2的所有表面。a M 9 m XARKit调用你的委派的session(_:didAdd:) ,为每个独特的表面使用一个ARPlaneAnchor。每一个平面– 7 : p Q ` V Y锚都提供了关于表面的细节,比如它在现实世界: : 2中的位置和形状。

session(_:didAdd:) 说明:

  1. 根据会话配置,ARKit可以自动向会话添加V $ X [ . [ X – )锚。
  2. 如果你使用SceneKit或SpriteKit来显r i t示AR体验,你可以实现以下方法之一来代替跟踪不仅仅是向会话中添加锚点,还可以跟踪如何将SceneKit或SpriteKit内容o D B r 1添加到相应的场景中:ARSCNView: renderer(_:nodeFor:) or renderer(_:didAdd:for:) A4 / 0 1 V GRSKView: node(for:) or view(_:didAdd:for:)

3.24 ARPlaneGeometry

  • ARPly U , r ] ^aneGeo( L 3 Lmetry: 在世界跟踪AR会话中描述被探测平面形状的三维网格。
class ARPlaneGeometry : NSObject

在世界跟踪AR会话中描述被探测平面形状的三维网格。这个类提供了被检测平面的大致形状的估计,其形式是一个! l 7详细的3D网格,适合与各种渲染技术一起使用或用于导出3D资产O F 1 1 C / @。(使用SceneKit查看平面几何图形的快速方法,请参见ARSCNPlaneGeometry课程。)

与ARPlaneAnchor中心和范围属性不同,后者仅对检测到的平面的矩形区域进8 6 W E % T D ~行估计,而平面锚的几何属性提供了对该平面覆盖的二维区域的更详细的估计。例如,如果ARKit检测到一个圆形桌面,得到的ARPlaneGeos x K D D ] ]metry对象大致匹配表的一般形? . ] n x K状。随着会话的继续运行,ARKit提供了更新的平* D g [ O 3面锚点,其相关的几何形状改进了飞机的估计形状。

您可以使用此模型更精确地放置3D内容,这些内容应该H e s 6 o A p x只出现在检测到的平面上。例如,确保虚拟对象不会从表的边缘掉落。您还可以使用这个模型来创建遮挡几何图形,它将摄像机图像中检测到的表面后面隐藏其他虚拟内容。

平面几何的形状总是凸的。也就是说,平j ; x – =面几何的边界多边形是一个最小的凸包,它包围了ARKit识别或估L & k X 9 m ( –计的所1 d W 0 0 , , c h G w Y点,这些点都是平面的一部分。

3.25 ARSkeleton

  • ARSkeleta T Z 1 ! 1 Xon:跟踪的身体的骨骼的接口。
class ARSke[ o ! O 3 } ( lle_ o x U Y Nton : NSObject

作为关节的集合,本协议描述了ARKit可以跟踪的人体运动状态。
ARSkeleton3D子类为您提供了3D空间中被跟踪的人体关节的位置,特别是它的jointLl / MocalTransformsA [ 8 6 4 ~ I和jointModelTransforms属性。
ARSkeleton2D子类通过它的jointLandmarks属性为您提供了一个二维空间中被跟踪物体关节的位置。

3.26 ARSkeletonDefinition

  • ARSkeletonDefinitir j P v ` x l uon:关节的层次结构和它们的名称。
class ARSkeletonDefinition : NSObject

骨架定义建立了构成3D或2D身体骨架的关节之间的关系,其中关节连接到其他关k : s h – k S节,在父-子层次结构中构成单个骨架。使用parentIq O G O T 8 L 4 /ndices来标识给定框架定义的层次结构。
ARKit指定了对身体跟踪至关重要的特定关节。可以通过调用index(forJointName:)并传入一个可用的联名标识符来访问指定的联名。

3.27 ARBody2D

  • ARBody2D: 屏幕空间表示ARKit在摄像机提要中识别的i c ~ { . f x P A人员。
class ARBody2D : NSObject

当ARKit在摄像头提示中识别一个人时,它会估计身体关节的屏幕空间位置,并通过当前帧的detectedBody向您提供该位置。

3.28 ARBodyAnchor

  • ARBody V / x c _ + [ VAnchor: 一个物体,它在三维空间中跟踪一个物体的运动,ARKit可以在摄像Z 5 h g m ] Z头中识别它。
class ARBodyAnchor : ARAnchor

这个ARAnchor子类跟踪单个人的移动。通过使用ARBodyTrackingConfiguration运行会话,您可以启用身体跟踪。
当ARKit在后台A 8 } v 5摄像头feed中识别一个S * _ @ o b人时,它会用ARBodyAnchor调用你的委托的session(_:didAdd:)函数。身体锚点的变换位置定义了身体髋关节的世界位置。
你也可以在框架的锚中检查ARKit正在跟踪的k K N [ } d ,物体。

  • 把骨架放在表面上

因为身体锚点的原点映射到髋关节,所以您可以计算脚到髋关节的当前偏移量,从而将身o K A U | ; g体的骨骼放置在一个表面上。通过将脚关节索引传M ( ] ^ 4 i r E :递给jointModelTransforms,您可以得到脚与骨骼原点的偏移+ j C l量。

static var hipTH ^  + S g soFootOffset: Float {
//| f S : Get an index for a foot. 
let footIndex = ARSkeletonDefinition.defaultBody3D.index(forJointName:m ^ 2 x u ! r .leftFoot)
// Get the foot's wo_ ; [ X Vrld-space op ^ kffs; Z w N 4et from the hip. 
let footTra8 h ~ V Fnsform = ARSkeletonDefinition.defaultBodyu V f  03D.neutralBodySkeleton3D!.jointModelTransforms[footIndex]
// Returnk 6 ! E T 4 f K the height: I * 1 + V by getting just the y-value. 
let distanceFroB W N 4 - 7 a t #mHipOnY = abs(footTransform.columns.3.y)
return distanceFromHipOnY
}

3.~ ! ; f z ?29 ARCoachingOverlayView

  • ARCoachingOverlayView: 在会话初始化和恢复期间为用户提供指导的可视化指令的视图。
class ARCoachingOverlayView : UIF 6 u  1 { Z gView

此视图为您的用户提供了标准化的登录例程。您可以配置此视图,使其在会话初始化期间和j A q有限的跟踪情况下自动显示,同时为用F ! L t户提供特定的指令,以最方便地跟踪ARKit的世界。
这些插图显示了具有水平和垂直平面目标的叠加视图,$ 6 v { k T表明用户应该开始移动设备:

ARKit3.5  框架学习 (一)核心类简介(上)

这些插图显示了叠加视图,表明用8 o . 5 j o户应该继续移动手机或改变移动速度:

ARKit3.5  框架学习 (一)核心类简介(上)

当你启动你L E I s / |的应用程序时,coaching overlay会要求用户以帮助ARKit= W m Z & j O m建立追踪的方式移动设备。当你选择一个I q e % O 2 l Z特定的目标时,比如找到一架飞机,视图会相应地调整它的指令。当coaching over| W H Clay确定目标已经达到并且不再需要co3 M H 6aching之后,它就会从用户的w $ + w视图中隐藏起来。
% $ g : J Q d k关使用coaching overlay的示例应用程序,请参见{ b x l $ s放置对象和处理3D交互。

  • 支持自动辅导:

$ T X 1认情况下,activatesautomatic是启用的,因此您应该覆盖coachingOverlayViewWillActivate(_:)来确定教练是否在进行中。协调您的操作以帮助用户关注这些指令,c = h . Q : P例如5 Y m x Y Y v ),通过隐藏会话重新初始化时不需要的任何UI。

  • 在中断后重新定位:
    如果启用了重新本地化(请参阅sessionShouldAttemptRelocalization(_:)),如果任何中断降低了应用程序的跟踪状态,ARKit将尝试恢复您的会话。在这种情况下,coaching overZ D l +lay会自* c Y动出现,并向用户提供帮助ARKit进行重新定位的指令。
ARKit3.5  框架学习 (一)核心类简介(上)

在此期间,coaB B – V c % Tching overlay包含一个按钮,t K / z (让用户指示他们希望重新开始而不是恢复会话。

ARKit3.5  框架学习 (一)核心类简介(上)

ARKit通过调用你的委托的coachingA l ^ B ? k ; u DOverlayViewDiE = d 2 EdRequestSessionReset(_:)函数在用5 : a x B I d v 0户按下Starb b Q gt时通知你。实现这个回调,如果你的应d j K f . { q p y用程序需要任何自定义动作来重新启动AR体验。

func coaching3 ? h b hOverlayViewDidRequestSessionReset(_ coachingOverlayView: ARCoachingOverlayView) {
// Reset the session.
let configuration = ARWorldTrackingConfiguration()
configuration.planeDetQ ? % + L l / Eection = [.horizontal, .vertical]
session.run(configuration, options: [.resetTracking])
// Custom actions to restart the AR experience. 
// ...
}

如果你没有实现coachingOverlayViewDidRequestSessionReset(_:),g o ` ` L 1 coaching overlay会通过重置跟踪来响应Start Over按钮,这也会移除任何现有的锚点。
有关重新本地化的更多信息,请参见管理会话生命周期和跟踪质量。

3.30 ARSCN B UNView

  • ARSCNView : 一个视图,使您能够显示与SceneKit增强现实的经验。
class ARS, u j r 2 T *CNView : SCN~ i F r }View

ARSCNView类提供了创建增强现实体验的最简单方法,这种M 1 V e H t w Y p体验将虚拟3D内容与真实世界的设备摄像头视图混合在一起。当你运行视图提供的{ $ C z ( S t 2ARSession对象:

  1. 该视图自动将来自设备摄像机的实时视频提要呈现为场景背景。
  2. 视图的SceneKit场景的世界坐H R j y L q标系统直接响应由会话配置建立的AR世界坐标系统。d : I p r F ^ }
  3. 视图会自动移动它的SceneKit摄像头,以匹配设备在真实世界中的移动。

因为ARKit会自动将SceneKit空间与现实世界相匹配,所以放置一个虚拟对象,使其看起来能够保持一个真实世界的{ q ; S R n位置% N g =,只需要适当地设置该1 1 x } | *对象的SceneKit位置。(参见使用SceneKit提供3D虚拟内容。)

您不一定需要使用ARAnchor类来跟踪添加到场景中的对象的位置,但是通过实现ARSCNViewDelegate方法,您可以将SceneKit内容添加到ARKit自动检测到的任何锚中。

3.30.1 ARSCNView 类定义

3.30.2 ARSCNViewDelegate

  • ARSCNViewDelegs A I @ate:代理方法v S & n v P a 4您可以实现将SpriteKit内容的自动, ) t ^ : ! K | A同步与AR会话进行协0 X Y e m t w调。
    实现这个协议来提供与视图的AR会话跟踪的ARAnchor对象相对应的SpriteKit内容,或者管理视图对这些内容的自动更新。
    该协议扩展了AR6 I # + aSessionObserver协议,因此您的会话委托也可以实现那些方法来u [ !响应会话状态的更改。

  • 处理内容更新:

//要求委托提供一个与新添加的锚点y m b +相对应的SpriteKit节点。
func view(ARSKView,f d n $ f nodeFor: ARAnchor) -> SKNode?
//告诉代理,与一个新的AR锚相对应的SpriteKit节点已经被添加到场景中。
fug } nc view(ARSKView, didAdd: SKNode, for: ARAnchor)
//告诉代理,SpriteKit节点的属性将被更新,以匹配其相应锚点的当前状态。
func view(ARSKView, willUpdate: SKNode, for: ARAnchor)
//告诉x ( r K u 4 @代理,SpriteKit节点的属性已经更新,以匹配其相应锚的当前状态。
func view(ARSKVH v w j ^iew, didUpY y ;date: SKNode, for: ARAnchor)
//告诉代理,与AR锚对应) N s P d s的SpriteKit节点已经从场景中移除。
func view(ARSKView, didRemove: SKNode, for: ARAncho[ F l ] q /r)

3.30.3 ARSCNView 属性和) * $ i U x + 9方法

  • 必需条件
    使用SceneKit提供3D虚拟内容:
    使用SceneKit将逼真的三维物体添加到AR体验中。
//用于管理视图- l T P u内容的k x r Y R :运动跟踪和摄像机图像处理的AR会话。
var session9 M ~ ] V 5 G: ARSession
//将在视图中显示的SceneKit场j ? v 8 v 4 j景。
va* e B b pr scene: SCNScene
  • 响应AR更新
//一个对象,你提供的中介同步视图的AR场景信息与SceM @ g S (neKiF Z 6 g Y T b ~ Vt内容。
var delegate: ARSCNVieY h Z d swDelegate?
//方法可以实现将Scc c W g } 6eneKit内容的自动同步与AR会话进行协调。
protocol ARSCNViewDel; x p ` vegate
  • 发现真实的表面
在捕获的摄像机图像中搜索o @ !SceneKit视图中某个点对应的真实对象或AR锚点。
func hitTest(CGPoint, types: ARV N # : D ^ 6HitTestResult.ResultType) -> [ARHitTestResult]
//创建一个光线投射查询,该查询源于视图上与摄像机视场中/ B ^ (  U } i心对齐的一个点。
func raycastQuery(from: CGPo3 F Hint, allowing: ARRaycastQuery.Target, alignment: ARRaycastQuery.TargetAlig) T v } FnmenH 4 A ; e 9t) -> ARRaycastQuery?
  • 将内容映射到实际位置
//返回与指定SceneKit节点关. . F I联的AR锚z 5 o I i点(如果有的话)。
func anchor(for: SCNs w H s ;Node) -> ARAnchor?
/G N 2 { = q/返回与指定AR锚.  r e z关联的SceneKit节点(如果有的话)。
func node(for: AX n ; v F d HRAnchor) -> SCNNod| | v b r 2e?
//在AR= ? 2 $ A : kKit检测到的D 2  3 ; y i R三维世界空间中,返回从2D视图到平面上的点的投影。
func unprojec7 t / x v r , g ttPoint(CGPoint, onte . 1 x 8 NoPlai 1 + / Qne: simd_float4x4) -&P _ k I Vgt; simd_float3?
  • 管理光照
//一个布尔值,指定ARKit是否在视图的场景中创建和更新S( 4 ?ceneKit灯光。
vara r & automaticallyUpdatesLighting: Bool
  • 调试基于“增大化现实”技术的展示

//在SceneKit{ ~ T d O f视图中绘制覆盖内容以帮助调试AR跟踪的选项
typealias ARSCNDebugOZ _ uptions
  • 管理渲染效果
、、确定视图是否呈现运动模糊。
var rendersMotionBlur: Bo% f & 4 b i nol
//一个确定SceneKit是否将图像噪声特征应用于应用程序的虚拟内容的标志。
var rendersCameraGrain: Bool

3.31 ARSKView

  • ARSKView: 一个视图,使您能 W x , ? . f Y y够使用 Sp[ [ HriteKit显示AR体验。
class ARSKView : SKView

使用 j 0 & T e #ARSKView:类来创建增强现4 6 / N 5 3 ` |实体验,将2D元素放置在3D空间中的设备摄像机视图中。当你运行视图提供的ARSession对象:

  1. 该视图自动将来自设备摄像机的实时视频提要呈现为场景背景。
  2. 当您实现ARS[ C ( O ( g t ~ ?KViewDelegate方法来将 SpriteKit内容与真实世界的位置相关联时,视图会自动缩放和旋转那些 SpriteKit节点,以便它们看v $ !起来能够跟踪摄像机看到的真实世界。

3.31.1 ARSKViewDelegate

  • ARSKViewDelegate: 提供方法您可以实现将P E v W H ( tSpriteKit内容的自动同步与AR会话进行协# : F O ^ . $ h调。
protocol ARw #  h O t R (SKVie ~ & ( 8 {ewDelegate
  1. 方法您可以实现将SpriteKit内容的自动同步与AR会话进行协调。
  2. 实现这个协议来提供与视图的AR@ i g会话跟踪的ARAnchor对象相对应的SpriteKit内容,或者管理视图对这些内容的自动更新。
  3. 该协议扩展了ARSessionObserver协议,因此您的会话委托也可以实现那些方法来响应会话状态的更改。
  • 处理内容更新的回调代理:
//要求委托提供一个与新添E V ; t x 3 Q ~ h加的锚点} B X相对应的SpriteKit节点。
func view(ARSKView, no; Y / gdeFor: ARAnchor) -> SKNode?
//告诉委派,与一个新的AR锚相对应的SpriteKit节点已经被添加到场景中。
func view(ARSKView, didAdd: SKNode, for: ARAnchor)
//告诉委托,SpriteKit节点的属性将被更新,以匹配其相应锚点的当前G 5 e i A 1 j 6 {状态。
func view(ARSKView, willUpdate: SKNode, for: ARAnchor)
//告诉委托,SpriteKit节点的属性已经更新,以匹配其相应锚的当前状态。
func view(ARSKView, didUpdate: SKNode, for: ARAnchor)
//告诉委托,与AR锚对应的SpriteKit节点已经从场景中移除。
func view(ARSKView, didRemove: SKNode, for: ARAnchor)

3.32 ARMatteGenerato] g V M k br

  • ARMatteG5 2 c U denerator:一个创建哑光纹理的对象,你可以用它来遮挡你的应用程序的虚拟内容
class ARMatteGenerator : NSObject

当你想要0 y /完全控制你的应用程序的虚拟内容时,使用这个类& & P,基于ARKit在摄像头feed中识别的人。

使用标准渲染| s / v器(ARView或ARSCNView)的应用程序不需要这个f n ! u J g g类来影U T F 0 o ( p 6响人们的遮挡。有关更多信息,请参见frameSemantics。

为了帮助你的自定义渲染器与人遮挡,matte生成器处理alpha和深度信息在帧的分段缓冲和估计的深度数据,为你提供matte和深度纹理。你= x ) H使用这些纹理在你的应用程序的虚拟内容上分层

3.33 ARQuickLoo0 o & 6 lkPreviewItem

  • ARQuickLookPreview7 9 ] , } M )Item:一个你用来定制AR快速浏览体验的对象。

当您想要控制背景A – Q m 3 v T,指定共享表格共享的内容,或者在不允许用户缩放特定模型的情况下禁用缩放时,使用这个类。

3.34 ARFrame

  • ARFrame: 位置跟踪信息作为会话的一部分而捕获的视频图像

当ARKit分析视频帧以估计用户在世界中的位置时,一个正在运行的会话不断地从设备摄像头捕获视频帧。 ARKit还以ARFP d S ~ 2 1 C *rame的形式向您提供这些信息,并以您的应用] $ e , [ W 9程序的帧速率的频率提供这些信息。

你的应用程序有两种接收AR{ D Y O j NFrame的方式:

  1. 如果你的应用程序维护了自己的渲染循环,或者你需要在ARSCNViewDeleg^ & w p [ate或ARSKViewD7 d ] Helegate回调中获取帧信I G ; x息,那么从ARSession中请求currentFrame。
  2. 让你的一个对象成为ARSession的委托,当 ARKit捕获新帧时自动接收它们。

3.34.1 ARFrame 类定义

3.34.2 ARFs E 0 ) | D m rame 属性方法

  • 访问捕获的视频帧
//包含摄像机捕获的图像的像素缓冲区。
var capturedImage: CVPixelBuffer
//帧被捕获的时间。
var timestamp: TimeInterval
//深度图(如果有的话)与视频帧一起捕获。
var capturedDepthData: AVDepthData?
//帧(如果有)的深度数据被捕获的时间。
var captu8 8 s f c SredDepthDataTimestamp: TimeInteri 2 c 4 lval
  • 检查世界地图状态
//为该框架生成或重新定位世界地图的a m ? 9 2 I C ^ e可行性。# : C
var worldMappingStatus: ARFrame.WorldMappingStatus
//可能的值,描述ARKit如何彻底地映射给定帧中可见的区域。
eU X O num ARFrame.WorldMappingStatus
  • 检查现场参数
//有关用于捕获帧的摄像机位置、方= } j o U向和成像参数的信息。
var camek D ? M H r | $ra: ARCameR k S Q 4ra
//基于摄像机图像的照明条件的估计。
var lightEstimate: ARLv s  A gightEstimate?
/G { $ _ r +/返回一个仿射变换,用于在规格化图像坐标和用于在屏幕上呈现摄像机图像的坐标空间之间进行转换。9 ) Y
func displayTransform(for: U] . / ^ b Z ) R AIInterfaceOrientation, viewportSize: CGSize) -> CGAffineTransform
  • 跟踪和查找对象
//表示场景中被跟踪的位置或检测到的对象的锚点列表。
var anchors: [ARAnchor]
//在捕获的摄像机图像中搜索真实世界的对象或AR锚。
func hitTest(CGPoint, types: ARHitTestResult.ResultType) -> [ARHitTestResult]
  • 调试现场检测
//目前,场景分析的中间结果ARKit用于执行世界跟踪。
var rawFeaturePoints: ARPointClour y V 7d?
//AR会话的世界坐标空间中的点的集合。
class ARPointCloud
  • 发现真实的表面
//获取一个屏幕点的光线投射查询。
func raycastQuery(from: CGPoint, allowing: ARRayca@ $ 0stQuery.Target, alignment: ARRaycast2 h 4Query.TargetAlignment) ->: k T 7 T b w ARRaycastQueryg ? e r
  • 2D追踪人体
//ARKit在相机图像中识别的身体的屏幕位置信息。
var detectedBody: ARBody2D?
//屏幕空间表示AH | k & [ j m 9RKit在摄像机提要中识别的人员。
class ARBoda v h ( 1 J c :y2D
  • detectedBody3 V a j 7 – [ I: ARBody2D类型, 用于ARKit在相机图像中7 h y识别的身体的屏幕位置信息
var detectedBody: ARBoq ) ~ 1 * r ^d` @ ) J *y2D? { get }

要启用2D体检测,您可以将体检测帧语义添加到配置的b F n F u ` 5frameSemantv T r &ics属性中,或者使用ARBodyTrackiM * s OngConfiguration运行会话,在默认情况下,体检测是启用的。

  • class ARBody2D : 屏幕空间表示ARKit在摄像机提要中识别的人员。

当ARKit在摄像头提示中识3 x o W P别一个人时,它会估计身体关节的屏幕空间位置,并通过当前帧的detectedBody向您提供该位置。

  • 将虚拟内容与人隔离
//一个包含像素信息的缓冲区,该像素信息识别来自用于遮挡虚拟内容的摄像机提要的对象的形状。
val l  9 r _ u * er4 d . j W + s T Z segmentationBuffer: CVPixelBuffer?
//一? C L q ( 个缓冲区,表示用于遮挡虚拟内容的摄像机提要的估计深度值。
var estimatedDepthData: CVF  f y e C p } VPixelBuffer?
//一个像素的分类,它定义} h V b # y了你用来遮挡应用程序虚拟内容的内容类型。
enum# G v ARFrame.Segmentat` W 2 N K LionClass
  • segmentationBuffer : CVPixelBuffer类型,标识一个包含像素信息的缓冲区,该像素信息识别来自用于遮挡虚拟内容的摄像机提要的对象的形状。

  • estimatedDepthData :CVPixelBuffer类型,深度数据缓冲区,表示用于遮挡虚拟内容的摄像6 N S v U d ]机提要的估计深度值。

  • enum ARFrame.Segmentat b l e 1 I |ionClass :枚举类型,它定M H A _义了你用来遮挡应用程序虚拟内容的内容类型

enum SegmentationClass : UInt8

ARKit根据它对摄像机提要像素数据的解释应用这个类中定义的类别。只有人在摄像机提要中被识别,因此可用的像素分类是ARFrame.SegmentationClass.pe# v 2rson 或ARFrame.SegmentationClass.none。

  1. ARFramH k 4 4 C { Z j se.SegmentationClasC B 8 l A X . h Is.person: 将分割缓冲区中的像素作为人的一部分进行F W ? z [ 2分类。
  2. ARFrame.SegmentationClasY J , R k ^s.none: 将分割缓冲区中的像素分类为未识别的。
  • 开启相机纹理
//一个值,用于指定相机纹理纹理中出现的纹理数量。
var cameraGrainIntensity: F} X k X ~ o :loat
//由ARKit创o s = E $ C 9建的可平铺的金属纹理,以匹[ j _ 4 $ # w配当前视讯流的视觉特性。
var cameraGrainTexture: MTLTe, * _ D ( M Hxture?
  • cameraGrainIntensity: 用于指定相机纹理纹理中出现的纹理数量。
var cameraGrainIntensity: Float { get }

此属性在[0..1],其中0表示没有粮食,1表示粮食的最大数量。
当您将此值应用于cameraGrainTextureN b v :的深度组件时,您将从存储在金属纹理中的各种视觉图像噪声数据中选择概T k x 7 l b念上与此强度级别匹配的数据。

  • cameraGrainTexture: 由ARKit创建的可平铺的金属纹理,以匹配当前视讯流的视觉特性。
var cameraGrainTexture: MTLQ s V TTexture? { get }

摄像头纹理增强了用户体验的真实和增强方面的视觉凝聚力,使你的应用程序的虚拟内容具有类似的图像噪声特征,这些特征自然会出现在摄像头feed中。

如下图:

ARKit3.5  框架学习 (一)核心类简介(上)

如果ARSCNView是你的渲染器,SceneKit默认会将相机纹理应用到你的应用, 7 p O . % % M &的虚拟内容中。有关更多信息,请参见rR & z * |endersCameraGrain。

  • rendersCameraGrain: 一个确定SceneKit是否将图像噪声特征应用于应用程序的虚拟内容的标志。rendersCameraGrain是ARSCNVx v L iew的一个属性。
var rendersCamera* 0 RGrain: Bool { get set }

默认启用。设置好后,SceneKit会在你的应用程序的虚拟内容中添加一个相机纹理效果,该效果与ARKit在相机反馈中观H s ) % [ g z察到的图像噪声特征相匹配。

参考:

  1. Z p b a团的这篇写的很好:ARKit:增强现实技术在美团到餐业务的实践
  2. juejin.im/post/5a308b…