近期,苹果开发者网站发起了Ask Apple活动,约请开发人员直接与苹果专家沟通。

活动时刻是2022年10月17-21日,现在活动已结束。

苹果为咱们保存了本次活动中一切内容供开发者查阅。

我以为有必要在这里对一些感兴趣相关专题中问答内容进行汇总并翻译,供咱们参阅。

由于水平有限,文中的翻译或许有些不精确或有些小过错,还望咱们在阅读进程中了解。假如您发现过错或有更好的想法,欢迎指正

Photos and Camera

Ask Apple问答汇总之Photos and Camera

怎么将不显现“撤销”按钮与新的PHPickerViewControllerDelegate进行关联

Developer:

UIImagePickerCOntrollerDelegate中,有两个办法。

extension ViewController: UIImagePickerControllerDelegate {
    func imagePickerController(_ picker: UIImagePickerController, didFinishPickingMediaWithInfo info: [UIImagePickerController.InfoKey : Any]) {
        // script to process image when select an image from album and dismiss after the processing
    }
    func imagePickerControllerDidCancel(_ picker: UIImagePickerController)       {
        // the dismiss at this section will make the ‘cancel’ button on the top left of the album controller view being able to dismiss
        dismiss(animated: true, completion: nil)
    }
}

关于最新的PHPickerViewControllerDelegate

extension AlbumViewController: PHPickerViewControllerDelegate {
    func picker(_ picker: PHPickerViewController, didFinishPicking results: [PHPickerResult]) {
        // only has one function which serve the similar function as the func imagePickerController in UIImagePickerControllerDelegate
    }
}

怎么不显现相册操控器视图左上角的”撤销”按钮?由于在新的PHPickerViewControllerDelegate署理办法里不再有func imagePickerControllerDidCancel

只需点击”撤销”按钮,就不会运用新的PHPickerViewControllerDelegate封闭相册操控器视图。假如在picker()中输入dismiss(animated: true, completion:nil) ,它也不会封闭相册视图操控器,即便点击“撤销”按钮。

请告知怎么将不显现“撤销”按钮与新的PHPickerViewControllerDelegate进行关联,现在只看到picker()一个单一办法。谢谢。

Apple:

picker:didFinishPicking:假如点击“撤销”按钮,将调用空成果,假如设置了configuration.preselectedAssetIdentifiers署理办法将被预加载调用。假如你启用了滑动消失,你也能够履行presentationControllerDidDismiss:

developer.apple.com/documentati…

是否能够直接保存相片到躲藏的相册文件夹中?

Developer:

是否能够直接保存相片到躲藏的相册文件夹中?我一直在研讨“拍摄相片”相关代码并把

let photoCollection = PhotoCollection(smartAlbum: .smartAlbumUserLibrary)

改为:

let photoCollection = PhotoCollection(smartAlbum: .smartAlbumAllHidden)

但它对我来说不管用。

Apple:

您能够经过在更改恳求中设置资源上的躲藏特点来将该资源放入躲藏的相册中,请参阅:developer.apple.com/documentati… 请特别注意iOS 16和macOS Ventura中关于您的运用程序是否能够获取躲藏财物的变化。

Developer:

多谢Matt,我会研讨的

iOS16中是否有“删去布景”的API供给

Developer:

在iOS16中,shortcuts app有一个名为“删去布景”的快捷方法操作。是否可作为 API 从第三方运用程序中履行“仿制主题”功用?

Apple:

不幸的是,现在没有API能够做到这一点。请提交反应恳求,具体说明你期望针对运用的用例查看的 API 类型。

Developer:

另请参阅此讨论 – 我真的十分期望在API中运用它 – appledeveloper.slack.com/archives/C0…

有没有办法获取LiDAR的原始数据或仪表数据?

Developer:

您好,我正在开发一个运用LiDAR传感器的运用程序。 我企图获取LiDAR数据并转换为米或英寸。 我看到了”Depth Data Capture”和”Point Cloud”的一切示例代码。 但我能够找到一种办法来获取LiDAR雷达的原始数据。 一切这些代码都被包装在Metal中,所以我无法获得LiDAR的原始数据。 我只需求激光雷达深度。 有没有办法获取LiDAR的原始数据或仪表数据?

Apple:

咱们不支撑经过 AVCapture API 检索原始LiDAR数据,仅支撑上面的示例代码和 API。 关于丈量,咱们主张改用 ARKit API。

从iCloud增加/删去/列出相片的支撑办法是什么?

Developer:

由于(十分不幸的是)没有官方API能够直接拜访iCloud中的相片,有没有办法获得有关增加/删去相片的告诉?从iCloud增加/删去/列出相片的支撑办法是什么? 此问题针对的是iOS和macOS。

Apple:

你好!你有没有看过新的PhotoKit更新前史? 它答应你在库产生更改时收到告诉,即便你的运用未运转也是如此。以下是有关此主题的 WWDC 2022 视频:

developer.apple.com/videos/play…

关于相片浏览运用增加Live Text支撑的问题

Developer:

你好!我正在努力向我的相片浏览运用增加Live Text支撑。不幸的是,将ImageAnalysisInteraction增加到PHLivePhotoView会使您无法点击并按住以播映实时相片。这是一个已知问题仍是我做错了什么?我现已测验设置交互的委托并完成交互(_:shouldBeginAt:for:) (假如存在抵触,或许会回来 false),可是当我点击并按住实时相片(不是顶部文本)以测验播映它时,它不会被调用。谢谢!

Apple:

您应该能够将playbackGestureRecognizer移动到其他视图。

/// Gesture used to trigger playback. By default, added to the receiver. Can be moved to a different view.
@property (readonly, nonatomic, strong) UIGestureRecognizer *playbackGestureRecognizer;

Developer:

啊?!所以PHLivePhotoView是最上面的视图,我不了解我能够测验将其移动到在哪里

您是否注意到在这种情况下预计不会播映,我应该运用不同的视图(如专用播映视图)来触发播映?抱负情况下,它将像相片运用程序相同作业,您能够在其间点击并按住以进行播映,或许假如您点击并按住文本,则会挑选文本。

Apple:

或许能够在顶部创立一个透明视图,并将手势辨认器移动到那里以处理手势抵触。可是,假如它不起作用,那么创立专用的播映视图将是最佳挑选。不过,请提交反应恳求!

Developer:

好的,谢谢!我已提交FB11585815。或许应该创立一个示例项目来合作它,假如这会有所帮助?

Apple:

谢谢!一个示例项目将十分有帮助!

Developer:

我现已向FB11585815增加了一个示例项目,谢谢 @Justin J(Apple)

是否有从相册中获取一切特定区域的相片的API?

Developer:

亲爱的苹果团队 我正在寻觅一种办法来从相册中获取一切特定区域的相片。是否有 API 能够完成这一目标?

Apple:

没有答应方位限定提取或类似内容的 API。假如您今日想运用API履行此操作,则需求对单个PHAssets上的方位特点进行很多处理。请提交反应恳求,具体说明你的运用需求什么用例。

怎么处理运用AVCaptureMultiCamSession录制视频时遇到空帧问题

Developer:

我正在运用新的AVCaptureMultiCamSession创立画中画视频。我的视频输入是独自录制的,其间包含音频。鉴于数据流的并发性质,我在每次录制开端时都会遇到空帧。我应该怎么处理这个问题?

Apple:

事实上,咱们有示例代码能够做到这一点,AVMultiCamPiP: developer.apple.com/documentati…

Developer:

是的,我实际上用它来告诉我的完成。与我最大的差异在于,我将它们分开保存数据流。这使我能够拥有独自的前/后视频,我能够独自地运用/移动。

是否能够从电影视频的每一帧拜访深度图画?

Developer:

是否能够从电影视频的每一帧拜访深度图画?抱负情况下,在创立如下视频合成时能够如下运用:

AVMutableVideoComposition(asset: asset, applyingCIFiltersWithHandler: { request in ...}

我想将我的自定义变形镜头含糊算法运用于电影视频,这看起来很棒!

多谢!

James

Apple:

抱愧,现在不支撑此功用。假如这是您的重要功用,请将ER作为FB工作提交。

Developer:

会照做的。多谢!

经过ER和FB,您的意思是向反应帮助提交过错报告吗?

developer.apple.com/bug-reporti… ?

Apple:

ER = Enhancement Request(增强功用恳求)

FB = Feedback Incident via Feedback Assistant(经过反应助手反应工作)

是的。

能否阐明增益图是怎么在相片中运用的?

Developer:

与从其他地方导入的相片相比,运用 iPhone 或 iPad 拍摄的相片通常在相片中以更亮的色彩和高光显现。 经过很多发掘,咱们发现{MakerApple}部分中的一些EXIF标签包含HDR色彩映射信息。在 iPhone 12 和更新机型上拍摄的图画还包含影响局部色彩映射的辅佐 HDR 增益图。 从 iOS 16 开端,现在有用于在运用程序中出现 EDR 内容的 API。可是,一切关于 EDR 的 WWDC 会议只提到视频内容,即便图画也能够是 HDR。例如,能够在 EDR 中很好地渲染 OpenEXR 图画或具有 HDR 色彩空间的图画。 可是,无法以保存 HDR 信息的方法加载运用 iPhone 拍摄的 HDR 图画。 PhotoKitImage I/OCore Image 中的一切 API 只加载图画的 SDR 部分,不考虑图画的元数据和增益图。 Image I/O 中有_are_ APIs 用于提取增益图,但我找不到任何关于怎么将其运用于图画以完成 HDR 的文档。 您能否阐明增益图是怎么在相片中运用的,以便咱们也能够在启用 EDR 的运用程序中正确显现它?谢谢!

Apple:

咱们不供给具体说明这些图画怎么在相片运用程序中出现的 API。请提交有关您在此空间中想要的确切行为的反应(或在此处粘贴FB编号,以防您现已提交了一些)。

Developer:

多谢!这里:FB11512515 和FB11512528

怎么更好地运用带有外部 GPS 设备的 iOS 运用程序获取方位?

Developer:

你好。我在 Infrakit.com 作业 咱们为建筑工地供给基于移动和网络的协作处理方案。咱们有 Android 和 iOS 运用程序。咱们有外部 GPS 接纳器,能够精确地将其附加到相片或运用其他功用——由于它是施工现场所需求的。 Android 能够很好地与外部接纳器合作运用,经过 NMEA 数据接纳数据并对其进行解析。可是,关于 iOS,衔接/测验外部 GPS 设备好像十分困难。您能否辅导咱们怎么更好地运用带有外部 GPS 设备的 iOS 运用程序获取方位,而不是运用手机的内部 GPS。我不知道在哪里问这个问题,可是由于咱们运用的是带有 GPS 坐标的相片和标签,所以我会在这里问,然后请你们把我推给正确的频道或人。提前致谢

Apple:

最好将这个问题发送给蓝牙或其他衔接团队,不幸的是,PhotoKitCamera的当时团队在运用外部 GPS 产品这一领域没有专业知识。

Developer:

我找不到对应的频道,你能够辅导我吗

Apple:

这些团队没有任何正在进行的活动。我主张为这些团队提交 TSI 或开发人员论坛。

Requesting Technical Support – Support – Apple Developer

Developer:

感谢!

有没有一种简略的办法能够将共享图库中的一切谈论仿制到相片的关键字字段中?

Developer:

有没有一种简略的办法能够将共享图库中的一切谈论仿制到相片的关键字字段中?

Apple:

没有任何 API 来拜访来自云共享资源的注释,也没有用于增加关键字的 API。请提交反应以恳求 API 支撑这些操作,并描绘您测验支撑的运用作业流/行为,谢谢。

Developer:

刚刚查看了一下,谈论在exiftool中无法检测到

好的 谢谢

Apple:

我以为您指的是对云共享(PHAssetSourceTypeCloudShared)资源所做的谈论,您是否指的是在UI中作为“标题”出现在图库相片中的谈论?

Developer:

不,显现在 iPhone 底部“谈论”字段中以及 Mac 版“相片”谈论图标后面的那些

Apple:

知道了,感谢您的承认。是的,这些是对云共享资源的谈论(不是用户库资源上的标题)

Developer:

那么没有办法阅读它们吗? 即便生成带有谈论和文件名的csv也会有所帮助

另外,这将怎么与iOS 16.1中的新共享库一同运用(假如您能够说…)

需求更改哪些图片元数据字段才能避免被视为重复字段吗?

Developer:

咱们的一些用户报告说,运用咱们的运用程序保存的图画在几秒钟后从“相片”中的图库中消失了。他们都拥有一台带有旧版macOS的Mac,而且他们都为相片启用了iCloud同步功用。 咱们的运用程序运用Core Image来处理图片。Core Image会将输入的大部分元数据传输到输出。尽管咱们以为这通常是一个好主意,但这好像导致了这个问题: 在Mac上运转的旧版相片(甚至是iPhoto?)好像以为咱们运用程序的输出图画是加载到咱们运用程序中的原始图画的副本。iCloud 同步产生后,Mac 会当即从图库中移除该图画,即便它处于睡眠模式也是如此。当 Mac 封闭或与互联网断开衔接时,图画会保存在资源库中,直到 Mac 重新联机。 这好像是由输出的元数据引起的,但咱们无法确认哪些字段导致旧相片将新图画检测为重复图画。 您知道咱们需求更改哪些元数据字段才能不被视为重复字段吗?

Apple:

你好!谢谢你的问题。运用 PhotoKit 和 iCloud 同步保存图画不该进行任何重复数据删去。假如这是可重现的,请运用此装备文件的相片确诊进行重现并翻开反应恳求,以便咱们进一步查询:developer.apple.com/bug-reporti…

关于PHLivePhotoView在Mac上无法播映实时相片的问题

Developer:

好像PHLivePhotoView在Mac的Catalyst app中没有为用户供给播映它的方法,不像在iOS上能够长按播映(或按住不做任何工作)。

“相片”运用在悬停播映时具有 LIVE 作用。咱们是否需求自己完成这种类型的操控,或许体系是否供给了播映实时相片的办法?

Apple:

这听起来像是一个bug,假如播映手势辨认器在Mac的Catalyst app中无法按预期作业。请翻开反应恳求,以便咱们进一步查询。

Developer:

我现已提交了FB11653991,也能够跟进一个样本项目

Apple:

它应该像iOS相同作业。

要处理此问题,您能够经过以下方法完成自己的操控/手势:

- (void)startPlaybackWithStyle:(PHLivePhotoViewPlaybackStyle)playbackStyle;
- (void)stopPlayback;

Developer:

好的,很帅,谢谢!FB11653991更像是一个功用恳求,使PHLivePhotoView像在“相片”运用程序中相同作业。我能够提交一个新的过错报告,并包含一个示例项目,显现单击并按住以在 Catalyst 中不起作用。

Apple:

多谢!

Developer:

FB11705385 谢谢你

关于在相机捕获视频时进行对象检测的问题

Developer:

在Mac上,催化剂对象检测由体系主动触发,针对从Camara捕获的每个帧,这会导致高CPU运用率,咱们不期望在相机捕获视频时进行对象检测。 它能够经过示例项目重现

developer.apple.com/documentati…).

这是体系问题吗?您何时会处理此问题?

Apple :

咱们已注意到此问题(感谢您向 FeedbackAssistant 提交bug),已在内部重现了该过错,并期望在将来的版别中处理该问题。

怎么检测iPhone 14 Pro?

Developer:

怎么检测iPhone 14 Pro相机? 它是.builtInTripleCameravirtualDeviceSwitchOverVideoZoomFactors回来[2,6],与iPhone 13 Pro相同(不是[2,4,6]

Apple:

能够看下关于-AVCaptureDeviceFormat.secondaryNativeResolutionZoomFactors的最新API。

Developer:

谢谢!

在Apple的示例捕获代码中,不支撑某些相机装备

Developer:

在Apple的示例捕获代码中,不支撑某些相机装备,好像关于深度数据……

咱们应该怎么处理这个问题?十分感谢。

if let depthData = photo.depthData?.converting(toDepthDataType:
                                                        kCVPixelFormatType_DisparityFloat32),
           let colorSpace = CGColorSpace(name: CGColorSpace.linearGray) {
            let depthImage = CIImage( cvImageBuffer: depthData.depthDataMap,        //FIXME: [api] -[CIImage initWithCVImageBuffer:options:] failed because the buffer is nil.
                                      options: [ .auxiliaryDisparity: true ] )
            depthMapData = context.tiffRepresentation(of: depthImage,
                                                      format: .Lf,
                                                      colorSpace: colorSpace,
                                                      options: [.disparityImage: depthImage])
}

Apple:

并非一切AVCaptureDevices和格局都支撑深度数据传输。双镜头摄像头能够(双镜头,双广角),以及LiDAR深度和原深感。为了保证挑选支撑深度的格局,您能够遍历 AVCaptureDevice 的 -格局并查看每个格局支撑的 DepthDataFormats 数组。假如数组不是 nil,您应该能够将其衔接到 AVCapturePhotoOutput,恳求深度,并在生成的相片中获取它。

Developer:

多谢

Apple:

要在AVCapturePhotoOutput上恳求深度,您需求在AVCapturePhotoOutput上启用深度数据传输: 为此,运用程序需求查看“PhotoOutput是否支撑运用AVCapturePhotoOutput.depthDataDeliverySupported,然后运用程序能够运用AVCapturePhotoOutput.depthDataDeliveryEnabled = YES 然后在恳求相片时,请保证还设置了AVCapturePhotoSettings.depthDataDeliveryEnabled = YES。`

Developer:

感谢您供给更多具体信息

我能够从AVFoundation API中禁用预亮光吗?

Developer:

我能够从AVFoundation API中禁用预亮光(运用亮光灯摄影期间产生的快速亮光,旨在削减红眼)吗?

Apple:

不幸的是,不能够。此外,预闪不仅仅是红眼;这也是关于AE / AF的。

关于AVCaptureMultiCamSession的问题

Developer:

我有一个关于AVCaptureMultiCamSession的问题:咱们期望运用来自同一虚拟AVCaptureDevice的两个输入端口设置相机会话,用于(同步)视频,但咱们只需求来自AVCaptureDevice的一个端口的静止图画。咱们怎么装备它?现在,当咱们挑选格局时,相机会话总是为两个静止图画分配缓冲区,这导致hardwareCosts为 1.03。咱们还期望捕获会话仅将主动揭露运用于一个输入端口。这或许吗?

Apple:

听起来您想以不同步的方法运转两个摄像头。您能够简略地运转两个独自的物理摄像机,而不是运用虚拟摄像机。您能够在此装备中独立操控它们的曝光,而且仅将其间一个衔接到AVCapturePhotoOutput,这应该能够下降hardwareCost

Developer:

两种不同的AVCaptureDevice作业,但抱负情况下,咱们期望有一个同步输出,例如远摄和广角。当咱们为虚拟相机运用静止图画分辨率为 4032×3024 的格局时,从远摄镜头端口增加第二个AVCaptureConnection 后,hardwareCosts超越 1.0。

Apple:

双摄像头不支撑在其组成物理摄像头上进行不同的曝光。它将它们视为一体。

Developer:

好的,咱们遇到的问题是,当亮光灯亮光时,运用来自同一AVCaptureDevice的两个端口时,静止图画有时会曝光过度。当用于AVCaptureDevice时,亮光曝光是能够的。

关于静止图画,当咱们设置超广角和广角镜头作为端口时,默认情况下静止图画始终来自超广角镜头。咱们有必要运用virtualDeviceConstituentPhotoDeliveryEnabled来获取广角相机静止图画。有没有办法改变这一点?咱们只需求广角静止图画。

当运用程序进入后台时,我是否有必要显式间断 AVCaptureSession

Developer:

当运用程序进入后台时,我是否有必要显式间断 AVCaptureSession?

Apple:

肯定不可!当你的运用进入后台时,会话会主动间断,当你处于前台时,会话会主动康复。:+1:

新版别iOS上无法收到AVAssetDurationDidChangeNotification

Developer:

我将视频捕获到本地磁盘(在 macOS 上)上共享目录上的 AVFragmentedAsset 中。当我从 iOS 运用程序翻开此资源时,我没有收到任何 AVAssetDurationDidChangeNotification。这曾经适用于以前版别的macOS和iOS。此功用有什么变化吗?

Apple:

或许需求经过 FeedbackAssistant 报告过错。 此类问题的最常见原因是 AVAsset 的持续时刻特点的值没有显式加载。在此之前没有更改告诉。

Developer:

谢谢你的答复,我知道了。我在为财物加载持续时刻和 containsFragmentskeys之后创立 AVFragmentedAssetMinder,然后增加告诉观察者。我在 macOS 上的捕获运用程序上做了相同的工作而且它能够作业,但关于 iOS 上的远程阅读器它没有。这便是让我感到困惑的地方。

咱们是否能够在企业分发环境中运用任何机制来为咱们的客户启用后台摄像头拜访

Developer:

咱们开发视频剖析软件产品,包含咱们的旗舰 GammaPix 技能,以运用智能手机和其他相机检测电离放射性。咱们的客户包含公共安全、环境保护、公民科学和教育用户,他们将这种才能用于各种意图。咱们 120,000 名用户中有 99% 运用 Android,由于咱们能够在后台进行重复的、无人值守的丈量以保证人们的安全。 咱们触摸的许多组织都在运用 iOS 设备。这包含咱们的纽约市警察局客户,他们最近从 Android 切换到 iOS,而且不再具有监控功用。咱们的用户将受益于咱们的运用程序能够不时在后台拜访相机以获取短片。该视频仅在镜头被遮盖时才有用,否则当即间断。在咱们专有的图画处理和剖析完成后,一切数据都会当即处理掉。 咱们了解并尊重 Apple 为保护用户隐私而对相机拜访设置的约束。咱们的用例在于拥有企业分销渠道的各种公共安全组织。咱们是否能够在企业分发环境中运用任何机制来为咱们的客户启用后台摄像头拜访?

Apple:

你好@Gordon,您能否弄清一下您关于“视频仅在镜头被掩盖时才有用”的说法?假如镜头被掩盖,怎么捕获视频?

Developer:

嗨,Brad。咱们的运用程序的作业方法是,当辐射照射到相机传感器时,有时会留下亮点。假如图画在其他方面较暗,则更简单检测到。所以咱们感兴趣的是黑色视频,比方当相机被掩盖时,这样咱们就能够寻觅斑驳。

对咱们来说,图画中的其他任何东西都是令人烦恼的噪音,而不是信号。

Apple:

了解了。而且这种丈量不能从运用程序中获取?所以用户知道产生了什么?

Developer:

它能够而且正在从当时版别的运用程序中获取,但这需求用户干预才能读取。咱们的 Android 用户欣赏的是,当设备不运用时,能够主动读取读数,并在检测到辐射时提醒用户。

假如 HEIC 文件有效地驻留在 OSX 相片库中,是否能够运用并行进程?

这个问题与 OSX 上的相片库有关。该运用程序处理用户创立和保存的 HEIC 文件,然后用户能够再次翻开、修正和保存 HEIC 文件。假如 HEIC 文件驻留在 OSX 文件体系上,则该进程相当常规。我的问题是,假如 HEIC 文件有效地驻留在 OSX 相片库中,是否能够运用并行进程。 现在,该运用程序运用以下代码在相片库中创立和重写 HEIC 文件(又叫相片库assets)。

  do
    {
      try PHPhotoLibrary.shared().performChangesAndWait({
        let request = PHAssetCreationRequest.forAsset()
        let options = PHAssetResourceCreationOptions()
        options.shouldMoveFile = true
        request.addResource(with: .photo, fileURL: fileUrl, options: options)
        localIdentifier = request.placeholderForCreatedAsset?.localIdentifier
        })
     }
     catch  { localIdentifier = nil }

要读取 HEIC 文件,该运用程序运用本地标识符/云标识符。 更具体地说,我的问题是运用程序测验做的工作是否正确(且牢靠),假如是这样,假如上面的代码是推荐的办法。 假设上面的代码在正确的轨道上,对我来说含糊的一个项目是写入文件运用 HEIC 文件名,而读取运用本地标识符。 因此,在重写时,指定与创立相同的 HEIC 文件 URL 是否真的会导致相片库中的原始 HEIC 文件被替换。 或许应该先运用本地标识符删去 HEIC 文件,然后创立全新的文件。 请注意,我对创立和康复 XMP 元数据感兴趣,这便是为什么 HEIC 文件十分适合该运用程序的原因。

Apple:

假如我了解正确,您是在问用已转变为 HEIC 的assets资源替换现有assets资源?这是不支撑的。您无法替换库中存在的assets的原始资源。假如要履行此类操作,则需求创立新assets并向该assets增加资源。

Developer:

谢谢。 或许是为了确认。 关于文件体系,我读取图画(带有自定义元数据)文件,对其进行修正,然后写入文件,运用相同的文件名进行读写。 可是,关于相片库,我读取了assets(带有元数据的图画),对其进行了修正,删去了原始财物,然后创立了一个新assets。 基本上,相片库不像文件体系文件那样简单修正。

Apple:

正确,修正是不同的模型,以保证用户数据的完整性

以上便是一切photos and camera专题的问答内容汇总。