Apple Vision Pro打开人们一扇未来交互的大门,不过Meta在其元宇宙的野望里,很快将神经接口手环带入现实。这项2021年公布的概念技术和演示,正在产品化中。近日在Meta的CEO马克·扎克伯格在Morning Brew(采访链接见文末)日常访谈节目中谈到,这个被称作“脑波手环”的神经接口装置,“在未来几年内”将商品化进行发售。
该神经接口产品初现在Meta在2021年的一次研究展示,而其雏形可追溯至2015年一家名为CTRL Labs的创业公司,该公司自创立以来就一直在致力于开发指控追踪腕带的想法,Facebook内部也在研发类似技术。自Meta收购CTRL Labs以来,一直致力于神经接口操控设备的下一代交互方式。值得一提,CTRL-Labs 这项技术是脑机接口,但它与埃隆·马斯克的 Neuralink 等技术不同,后者通过植入物直接从大脑读取神经活动,且最近公布的人体试验效果,恢复良好。我们重温Meta2021年发布的这项技术的应用视频Demo: 为什么将它放在手腕?Meta的一篇文章解释道,还有许多其他可用的输入源,它们都很有用。语音很直观,但对于公共领域来说不够私密,或者由于背景噪音而不够可靠。你可以将手机或游戏控制器等单独的设备存放在口袋中,从而增加您与环境之间的摩擦。当我们探索各种可能性时,将输入设备放在手腕上成为了明确的答案。手腕是佩戴手表的传统部位,这意味着它可以合理地融入日常生活和社交环境。这是一个适合全天穿着的舒适位置。它位于您用来与世界互动的手上。这种接近性将使我们能够将您双手的丰富控制能力带入 AR 中,从而实现直观、强大且令人满意的交互。神经接口可以更了解每个用户比起如Meta Quest和Apple Vision Pro这类头戴设备使用计算机视觉进行光学手指追踪的常规技术。通常光学追踪不仅准确率有限,延迟也相对较高,此外,它还容易受到遮挡问题影响,在暗光条件下表现更差。而脑波手环采用的电生理(EMG)技术,则是通过感知从大脑通过腕部传递到手指的神经电信号。理论上,这项技术能够实现零甚至负延迟、完美的准确性,在任何光照条件下都能稳定工作,且不受遮挡影响。最近的突破使得解码单个神经元的活动成为可能,从而可以实现对机器的“几乎无限控制”。 “未来,你基本上可以通过想象如何移动手来打字和控制某些东西,而这不需要夸张的动作,”扎克伯格解释道,“所以我可以坐在这里,基本上是向一个人工智能打字对话。”这种高质量和可靠性的无遮挡手指追踪技术,可以实现在膝上轻轻一抖即可精确控制复杂的界面,这使得它成为头戴设备和AR眼镜理想的输入方法。本质上,EMG的概念是基于一个事实:大多数人的手势表现是不规律的——这导致了基于摄像头追踪的错误结果——但大脑发出的信号是相同的,所以“神经接口会随着时间的推移不断变得更擅长理解每个人。” 与过去几周,火遍全网的苹果Vision Pro不同,其主要结合眼动追踪和光学手指追踪的“凝视和捏取”。该方法选择和“点击”时迅速直观,尽管如此,比单纯的点击更复杂的操作,比如滚动和调整大小,仍需相对夸张的手部动作,并且手必须对头戴设备可见才可操作。VisionPro的交互操作也成了一项奇观。 扎克伯格表示,"最终,你将拥有这样一个完全私人且低调的交互界面",因为即使是最轻微的手指动作也能产生足够强的大脑信号,让EMG捕捉并将其解释为特定动作。 嵌入Meta的AR/VR产品,全息对话不再是科幻根据2023年3月,内部泄露至The Verge的一份 AR/VR硬件RoadMap上看,Meta在2025年即将推出的第三代Ray-Ban智能眼镜将配备HUD(平视显示器)和脑波手环。根据Meta的路线图,两个价格点的手环模型将会提供其中一个仅包含神经输入技术,而另一个还会配备显示屏和摄像头,可以作为智能手表使用。此外,据称第二代神经接口手环将作为输入设备,服务于Meta计划在2027年推出的真正的AR眼镜,到那时可能你可以跟逝去的亲人全息对话。2021 年底的演示展示了 Meta 设想的 AR 眼镜如何让人们用全息图下棋 我们很快生活在虚实叠加,且实时肉眼可见的世界里,就像科幻电影呈现的那样。专访:https://www.youtube.com/watch?v=xQqsvRHjas4