苹果对空间计算并不陌生。自 2017 年推出 ARKit 和 2019 年推出的 RealityKit 以来,该公司一直在智能手机上率先使用 增强现实AR 技术,用于在物理环境中创建、渲染 3D 对象并与之交互。第一批采用者是广受欢迎的《Pokémon Go》和宇宙地图应用程序《NightSky》。
Apple Vision Pro 及其 visionOS 平台将苹果所谓的空间计算提升到一个新的水平。头显本身是一项技术壮举,由一系列传感器组成,用于音频光线竞速和用于实时 3D 映射的 TrueDepth、六个麦克风、前置八个摄像头,用于直通、捕获图像和视频、头部和手部追踪,以及内部四个摄像头用于眼动追踪、光学 ID、 和 EyeSight。
虽然可以肯定,但苹果声称这是空间计算的时代,换句话说,它将数字世界和物理世界结合在一起,最好将其描述为数据收集时代。混合现实是一种空间计算,最近一直在发展,这在很大程度上要归功于 Meta 及其 Quest 系列。但你可能不知道的是,这种设备泄露的敏感数据可能比意识到的要多。
Vision Pro 搭载了一系列的传感器,并可用于确定关于用户及其周围环境的各种数据。例如,深度传感器测量的距离地面距离可以确定用户的高度。火车驶过的声音可以帮助确定一个物理位置。用户的头部瞬间可以用来判断情绪和神经状态。从用户眼睛上收集的数据则最令人担忧。这不仅会带来有针对性的广告和行为分析,并且可能泄露敏感的健康信息。
苹果的三大安全和隐私声明:
光学识别:Apple Vision Pro 使用四个眼动追踪摄像头和一组不可见波长的 LED 来扫描用户虹膜的独特性。Vision Pro 的 Optic ID 用于解锁设备并授权 Apple Pay 付款和密码自动填充。与 Face ID 数据一样,苹果表示 Optic ID 是加密的,永远不会离开设备,并且只有 Secure Enclave 处理器能够访问。
系统级处理:所有相机和传感器数据处理都在 Apple Vision Pro 上进行,不会将敏感数据发送到服务器或云端,这降低了传输和/或存储过程中数据泄露的风险。
眼动追踪数据保密:注视方向、眼球运动和瞳孔扩张等所透露的信息可能比人们想象的更多。这些见解有助于恶意行为者确定一个人的想法、兴趣和反应。这是大多数 Vision Pro 用户不会想到的。所以,苹果强调“眼睛数据不会与苹果、第三方应用程序或网站共享”。
尽管苹果限制开发者在 Vision Pro 上使用传感器和摄像头。然而,第三方应用程序收集的实时数据的潜在影响引发了人们对开发人员如何使用这些数据以及它可以推断出什么的担忧。