客户端
游戏
无障碍

0

评论

2

2

手机看

微信扫一扫,随时随地看

对话Halliday:在AI 眼镜行业的起步阶段,用户使用时长比销量更重要

AI划重点 · 全文约8826字,阅读需26分钟

1.AI眼镜品牌Halliday在CES 2025上首发,受到观众和海外科技媒体的关注,被称为“可穿戴技术的新标准”。

2.Halliday AI眼镜已在量产,预计4月开始发货,众筹金额已超过330万美元,刷新了AI/AR眼镜项目的众筹纪录。

3.联合创始人Carter表示,到今年年底,最应该关注的不是谁卖得最多,而是谁现在被用户使用得最多、能获得最多的用户使用时长。

4.此外,Carter认为,AI大模型的出现赋予了眼镜更大的想象空间,可以帮助眼镜在有限的屏幕内完成信息的高效传递。

以上内容由腾讯混元大模型生成,仅供参考

蓝鲸新闻3月25日讯(记者 朱俊熹)AI这块热土向来不缺战场。从模型到应用,各种AI大战一波未平,一波又起。然而更多的赛道,或要等待更长的时间才能迎来终局,就像今年年初冒头的“百镜大战”。

1月,在全球规模最大的消费电子展CES 2025上首发了AI眼镜产品后,Halliday俨然成为中国厂商中的一匹黑马。它深受现场观众和海外科技媒体的青睐,被称作“可穿戴技术的新标准”,在集成AI功能的同时,外观却和普通眼镜没有多大区别。

CES结束后不久,Halliday又在全球众筹平台Kickstarter上开启了一轮众筹。上线首日就突破百万美元大关,截至3月9日,众筹金额已超过330万美元,刷新了AI/AR眼镜项目的众筹纪录。

Halliday的联合创始人、COO Carter 告诉蓝鲸新闻,这些筹集到的资金将主要用于订货、备货等环节,产品交付是他们现阶段摆在第一优先级的任务。目前Halliday AI眼镜已在量产,预计将在4月开始发货。

当聚焦在AI眼镜行业的视线开始转移到别的战场,留下来的玩家们或许能更冷静地看待这个方兴未艾的市场。Carter在接受蓝鲸新闻专访时表示,“到今年年底的时候,最应该关注的并不是谁卖得最多,而是谁现在被用户使用得最多、能获得最多的用户使用时长,这比单纯地看热闹有价值。”

这种产品驱动的思维模式,可以追溯到Halliday核心团队的创业经历。他们都来自于未目科技,是头部美瞳品牌moody的母公司。在moody蒸蒸日上的时候,他们开始思考,未来什么品类能更好地满足用户的需求,最终得到的结论是:智能眼镜。于是从三四年前起,团队就开始布局这个赛道。

当下一个Ray-Ban Meta成为国内众多智能眼镜厂商的目标时,Halliday又选择了一条“非主流”的技术路线,并和另一家专做可穿戴AI的创业公司Gyges Labs建立合作。双方共同定义了第一代Halliday AI眼镜,它没有配置摄像头,搭载的是Gyges Labs研发的DigiWindow技术,显示内容可以直接投影在用户视网膜上,而非镜片上。“虽然大家都叫智能眼镜,但实际上可能是完全不一样的物种。”Carter强调。

图片

图片来源:Halliday

而Gyges Labs的另一重身份,是朱啸虎投资的首个AI硬件项目,未目科技也是Gyges Labs的天使投资人。2024年11月,Gyges Labs宣布完成了数千万元的Pre-A轮融资,投资方包括金沙江创投、韶音创始人陈皞、NYX Ventures。朱啸虎曾表示看好大模型落地AI智能硬件这一方向,认为和互联网时代类似,AI时代下硬件也会比消费端APP先跑出来。

Carter则表示,大模型的出现,赋予了眼镜更大的想象空间。AI能够帮助眼镜在有限的屏幕内完成信息的高效传递,同时增加了可玩性和交互性。按照他的设想,未来手机将可能成为像充电宝一样随身携带的计算单元,而眼镜将成为人们最主要使用的产品。

以下是Carter与蓝鲸科技的对话实录,内容在保证原意下有删减调整。

热闹退潮后,智能眼镜的下一场突围战

蓝鲸科技:

很多人可能通过CES(美国消费电子展)才开始关注到Halliday,在CES上收获到的热度在你们意料之内吗?

Carter:

我们预期到大家对于智能眼镜的关注度会比较高,但确实没有意料到会这么高,包括对我们品牌的关注度。现场确实人山人海,接待量远远超出我们的预期。

蓝鲸科技:

为什么会选择在CES上来首发眼镜产品,这个平台能带来哪些助力?

Carter:

CES本身是全球最大的电子消费展会,很多品牌都会选择在CES上首发自己的新品,现场也聚集了很多媒体、科技行业爱好者。

图片

图片来源:Halliday在CES现场

蓝鲸科技:

你们现在是主要面向海外市场吗?

Carter:

是的。至少在第一阶段,我们很多功能还是基于AI来打造的,AI服务整体在海外是相对比较成熟的。在我们开始做的时候DeepSeek V3和R1还没有发布,其实DeepSeek现在在我们的需求领域也还是在一个偏早期的阶段。所以我们先面向海外用户来验证我们的功能和场景,并完成共创的过程。

未来不排除可能会在国内发售,今年我们会认真讨论这个选项,但是目前还在非常早期的阶段。

蓝鲸科技:

对于海外用户需求的洞察,之前有积累过一些相关经验吗?还是现在也在逐渐探索中?

Carter:

我觉得都有。一方面我们自己有在海外生活的经历,我之前也在负责moody的出海团队。怎样在海外去做营销、销售,以及用户洞察和运营,这方面我们都有比较成熟的方法论。

原理上讲,用一套相同的方法论,我们是可以洞察任何一个地区和用户的需求,只是需要时间和实地考察而已。我们可以从社交媒体的内容和与真实用户的交流,获取到非常多有效的信息。但要理解用户的真正需求,还是要基于他们对产品的真实使用体验。因为智能眼镜是一个全新的品类,无法完全类比任何一个其他的类目。

蓝鲸科技:

海内外用户对智能眼镜这类产品的需求会有什么显著的不同吗?

Carter:

首先我们能明显感觉到,海外用户对翻译的需求量是很大的,不像国内可能只有出国旅游的时候才会需要。在美国有很多来自不同文化背景的人,讲不同的语言,本身对于翻译这种特定功能的需求是远高于国内用户的。类似这样不同的文化场景和生活习惯方式都会带来不同的功能需求和侧重。

蓝鲸科技:

CES结束之后,你们在众筹平台Kickstarter发起了一轮众筹融资,为什么会选择这种众筹融资的方式?

Carter:

因为我们是在一个非常新的品类里,早期一定要有一群科技爱好者和发烧友,来和我们一起完成早期产品的打磨。他们最主要聚集的地方就是在Kickstarter和Indiegogo(注:都是众筹平台)这样的平台上,这也是为什么我们选择从众筹开始做起,因为会在这里找到和我们早期用户画像最匹配的用户。

蓝鲸科技:

筹集到的资金计划用于哪些方面?

Carter:

基本用于跟产品实际交付相关的研发、备料、订货和开模等费用。现在产品已经在量产了,我们预计在4月份发货。Kickstarter的募资活动结束后,我们也会考虑更多平台的销售可能性。

图片

图片来源:Halliday在Kickstarter上发起的众筹活动

蓝鲸科技:

今年“百镜大战”这个概念变得非常的火,你觉得这个趋势是真实存在的、可感知到的,还是更像是炒作起来的概念呢?

Carter:

我觉得都有。一方面,确实有很多玩家正在进入这个行业,推出自己的产品,但还远远没有到一个“战”的阶段。因为现在每家都还没有找到足够强的核心场景,大家都还在探索用户真实需求的阶段。

所以我觉得到今年年底的时候,大家最应该关注的并不是谁卖得最多,而是谁现在被用户使用得最多,能获得最多的用户使用时长。我觉得这比单纯地看热闹有价值,因为最终不管品牌在营销上面做得多么出色,最终核心还是要落回到产品的实际体验上。

和Ray-Ban Meta不同的智能眼镜物种

蓝鲸科技:

据说“Halliday”这个名字来自于电影《头号玩家》里的一个角色,为什么会参考电影来给公司取名?

Carter:

因为我们本身都很喜欢《头号玩家》这部电影,里面描绘了一个虚拟的电子世界叫 OASIS,“绿洲”。创造OASIS的人叫作James Halliday,他是一个非常有深度、可挖掘的角色。

他作为一个发明家,创造了OASIS世界,让很多人可以在虚拟世界里活出不一样的人生。但他其实底层仍然希望人们不要沉溺在虚拟世界里,而是花更多时间在真实世界里,和自己的家人朋友们建立更有意义的、有深度的交互和关系。

这个理念其实也是我们在坚持的。因为Halliday品牌的核心目标,就是通过AI技术和可穿戴硬件,将虚拟世界的信息和智能与现实世界进行完美融合,让所有人的现实生活变得更加舒适、流畅和高效。而不是创造一个VR的虚拟世界,让大家把时间都消耗在娱乐和虚无中。

Halliday本身是一个非常怀旧的人。他很怀念早期时候的电子科技行业,画面、游戏,包括人和人之间的相处关系会更加简单。不像在手机甚至VR时代之后,变得无比复杂,信息像爆炸一样地在轰炸所有人。

所以我们通过结合AI和更近眼的显示这两点,来帮助用户做更好的信息筛选,在合适的时间得到合适的信息帮助,这是我们长期努力的一个目标。

图片

图片来源:豆瓣《头号玩家》电影

蓝鲸科技:

Halliday眼镜希望满足用户对信息的哪些需求?

Carter:

一类是直接的功能性需求。例如我们的Cheat Sheet(备忘录)功能,能够作为提词器,在演讲、做presentation(推介)或面试的时候提供信息辅助。翻译功能可以让用户在出国旅行或者与外国人交流时毫无压力。导航功能可以解放双手,直接用眼镜来寻找路线。

另外一类则更偏向精神需求。这些不一定是单纯从效率上帮用户解决问题,而是用户在用过以后发现生活变得更加丝滑和方便了,俗称让用户用“爽”了。

拿通知功能来举例子,现在如果我想用手机看消息通知,我需要从兜里拿出手机,划开屏幕,找到那个通知去看具体内容,结果最后发现是一条无效的信息。但是在Halliday眼镜上,用户只需要稍微抬一下眼睛就可以看到最新的消息提醒,我可以快速决策是回复还是暂时先忽略。这个过程让我的生活变得更加简单和丝滑,减少了我在获取信息的过程中需要付出的时间和精力。

我们其实在各个功能在尝试增加用户在使用过程中的“爽”感,尤其是Halliday搭载的Proactive AI(主动式AI)功能。在聊天过程中,它可以去理解我们的聊天内容,基于内容本身来给我信息支持。比如说你问了一个我不知道答案的问题,类似“Beatles的第一张专辑是什么”,眼镜可以快速主动地为我提供答案。我只需要稍微抬眼扫一下,就可以用这个信息来继续我们的谈话。它底层满足的是想让自己看起来很聪明的想法,对应在马斯洛五层需求里自尊和社交的需求。

所以,我们既在一些具体的功能点上,帮助用户解决了一些使用现有工具无法解决的问题,也随着眼镜这个生态位的加入,让用户跟这个世界的链接方式变得更加丰富和丝滑。

图片

图片来源:Halliday

蓝鲸科技:

现在很多消费者可能会感觉,多数AI眼镜产品在功能上会趋于相似,比如都支持翻译、导航等。Halliday为产品找到的差异化优势是什么?

Carter:

软件上的话,我们搭载的主动式AI在当下是独一无二的,硬件上的差异化也是非常明显的。我们在提供显示的情况下,让它可以是一个35克以下、全天佩戴非常舒适,同时非常好看、能够做到12小时以上续航、适配标准近视镜片的眼镜。

这个过程其实是在智能眼镜所谓的“不可能三角”(注:指续航、重量、智能水平)里边,尽可能做到平衡性。让用户既可以享受智能眼镜的魔法和便利,又可以把它当作一个普通的眼镜来佩戴。用户不应该为了获得这些智能功能做出很多牺牲,比如要戴一个很笨重、难看或者不舒服的眼镜出门,或者每两小时给眼镜充一次电。像我自己就把我们的眼镜当作日常的主眼镜来佩戴。

所以智能眼镜首先应该是一副好的眼镜,然后才是提到的这些功能。至于落到哪些功能上,我觉得大家现阶段还在先把基本功能给覆盖全、做好的早期阶段。很多功能也都是围绕比较偏刚需的场景,因为它们足够简单直接,也是用户马上就可以用得上的。

在这个阶段,其实大家最不一样的还是在于,一个是硬件上的定义,另一个就是 AI功能到底能够做到什么深度。比如,提词器功能的深度很明显就是摆在那里的,但是像通知和信息管理,其实是一个可以做得非常深的领域。

名义上大家都有的一些功能,在实际使用的时候,它的交互逻辑、技术完整度,以及用户体验度是有很大差异的。虽然大家都叫智能眼镜,但实际上可能是完全不一样的物种。

蓝鲸科技:

在硬件方面,能够明显感受到Halliday眼镜的一大不同在于,它没有摄像头,也不会投射在镜片上,这是基于什么技术原理?

Carter:

我们其实相当于在镜框上装了一个微型DigiWindow(微型显示屏)显示模组,它可以将图像直接投射在你的视网膜上,你会反向看到一个3.5英寸的画面,跟Apple Watch的大小是差不多的。这样的话,Halliday的整个光机非常小。也正因为不需要投射在镜片上,所以用户可以直接到普通眼镜店里面去配普通的镜片,近视、远视、多焦点等都可以。另外通过DigiWindow技术,Halliday眼镜的光学效率是非常高的,让我们可以在不牺牲重量的情况下,实现12小时的续航。

图片

图片来源:Halliday

蓝鲸科技:

现在很多主流智能眼镜产品都会选择搭载摄像头,主推第一视角摄像、记录的功能。为什么你们会出现这种选择上的不同,是觉得这方面功能不是用户的主要需求吗?

Carter:

首先,Ray-Ban Meta(注:该眼镜搭载了摄像头、支持拍摄功能)去年出货百万台的成功,证明了用户对于智能眼镜是感兴趣的,同时对于眼镜的拍照功能是存在真实需求的。

图片

图片来源:Ray-Ban Meta

这也是为什么国内的很多厂商和品牌都在集体往这个方向走。拍照眼镜的技术相对更加成熟、直接,对于内容生态的要求也更低,所以它可以以最快的速度先跑出去。

反而大家对于显示眼镜这个领域的顾虑会更多一些。一方面因为产品定义和开发的难度要高非常多,另一方面现在市面上其实成熟的显示方案也并不多。光波导(注:利用镜片引导光线进入眼睛)等显示方案要搭载到日常眼镜上,在现阶段的局限是非常大的。我们是配置了DigiWindow,才能够兼顾显示质量、功耗以及佩戴体验。

Meta未来一定也会推出带有显示的眼镜(注:Meta创始人兼CEO扎克伯格曾在访谈中提到过这点),只不过他们也还在评估具体的技术路线。我们的逻辑是,既然知道未来是一定要做显示的,而且显示的信息传输速度是音频的10倍以上,我们不如从一开始就围绕AI来打造一款出色的、搭载显示的眼镜。这样AI才能够将信息比较高效地传递给用户,让这些信息可以在很多日常场景中真正赋能用户。

Ray-Ban Meta瞄准的是不想动手拍照、希望多拍第一视角,或者单纯追潮流,看到这款眼镜比较火也买一个来玩一玩的用户。覆盖的是相对更泛人群、偏娱乐化的场景,而我们在打的是偏功能辅助的场景,用户购买Halliday眼镜的核心的诉求是希望自己的生活可以变得更加智能和高效。这也是我前面说的,虽然我们和Ray-Ban Meta都叫智能眼镜,但其实根本不是一个物种。

蓝鲸科技:

那Halliday在市场上会有对标的产品吗?

Carter:

我们现在确实没有可对标、要对标的品牌或者产品,我们也是在摸索的过程中去逐步定义属于自己的路线。

从用户需求中,找到最优技术路线

蓝鲸科技:

DigiWindow这项技术在研发或者应用方面存在哪些门槛?为什么会成为你们的一个主打优势,而其他品牌可能很难往这个方向来做呢?

Carter:

首先DigiWindow技术是之前从来没有见过的一个技术路径,从来没有任何一个显示眼镜或者AR眼镜使用过这样的技术路线。

所以在Gyges Labs(注:可穿戴AI公司)发明了这个技术后,我们也快速地看到了它的应用潜力,在第一代产品上搭载了这项技术。

相比于光波导,我认为这项技术在短期内有不可磨灭的优势。今天我们看到的任何一件搭载光波导的眼镜都要么偏重,要么大幅牺牲显示,要么可能直接拿掉扬声器和触控板,所有能耗和电池容量都给了显示。

而Halliday通过搭载DigiWindow的显示模组,光波导的漏光、彩虹纹、能耗、亮度问题都不存在了。它的光学效率很高、能耗又很低,让很多对于智能眼镜的畅想成为了可能性,对整个硬件定义的影响是非常深刻的。所以DigiWindow是在当前的技术限制下,我们认为最好的显示方案。

图片

图片来源:Halliday

我们的逻辑并不是在市面上看到了一个感觉很独特的技术方案,就要用它来做一个产品,为了一碟醋包一顿饺子。我们是今天想要吃饺子了,那来想想应该用什么皮、用什么馅、用什么醋,能够让食客最后的体验达到最佳状态。

我们是一个产品驱动的团队和公司,会更关注在这一代产品中,到底要为用户解决什么样的问题。然后我们用市面上最好、最合适、最合理的技术来打造出这个阶段最好的产品。

蓝鲸科技:

现在这代AI眼镜产品是你们跟Gyges Labs共同打造的,双方的合作模式具体是怎样的?

Carter:

我们共同完成了对产品的定义。其中,我们会更偏向用户和需求的洞察,以及具体功能的方向,他们会更偏向技术层面的考量。相当于是,我们对用户和品牌的愿景,与他们对技术的愿景进行了相应的结合。

他们会负责核心技术的研发、产品的具体落地、供应链的支持,以及AI功能的开发。那我们会作为产品经理的角色,会做所有商业化相关的事情,包括品牌营销、D to C(直接面向消费者)的销售以及渠道销售等等。两边各取所长,大家都在做自己最擅长的这个领域。所以合作起来,才可以爆发出比较好的项目、做出比较好的成绩。

蓝鲸科技:

可以理解成DigiWindow这项技术是属于Gyges Labs的,那如果未来他们和其他眼镜品牌合作的话,会对你们的业务产生影响吗?

Carter:

我们其实是欢迎更多的玩家来采用跟我们一样的技术路线,把这个市场做大。因为我们在现在这个阶段,希望有好的技术,大家一起去用。它代表的是一条技术路线能成为更加主流的方向,历史上很少有一家公司独占一条技术路线可以获得用户的认可的,一个新的生态的建立离不开大量玩家的一起努力。

蓝鲸科技:

会担心在CES上收获到很多关注后,这条路线上的追赶者变多吗?

Carter:

现在每一家公司都有自己的一套对于智能眼镜的定义,有自己的侧重点,我们认为最合理的路线不一定是其他公司所认为的。

从另一个角度来说,当年iPhone出来的时候,其实它搭载的技术也没有哪一项是完全超越了那个时代,或达到了巨大跨时代发明级别的。iPhone之所以做得成功,是它将用户洞察得足够清楚,然后做出了一个让用户会喜爱的产品。即便是这样,它可能也是到了iPhone 4的时候,才成为一个在大众市场上足够成功的产品。

对我们来说,现在行业处在一个非常早期的探索阶段。在这个阶段,我们肯定是欢迎更多玩家用自己的方式来定义自己的产品,让用户先习惯眼镜是有智能功能的。在此基础上,大家才涉及到竞争的问题。其实说实话,短期内这个行业没有什么真正意义上的竞争,因为这个市场都还不是真实存在的。

至于追赶的问题,我们一定会保证自己跑得足够快,至少在一定阶段内保持在行业里比较领先的身位。快和慢不一定是通过销量,或者通过产品搭载了多么先进的技术来显示的。更多的是在于有没有找到或真的洞察到,用户到底需要什么样的场景和功能。

对于长期竞争,我觉得还是回归到对用户真实需求的洞察,这才是我们长期会花最多的精力去不断打磨和迭代的部分。

蓝鲸科技:

这方面会有一个评价标准吗?不通过销量,也不通过技术,那怎么去评判到底有没有真正洞察到用户的需求呢?

Carter:

我们希望在这个阶段触达到的用户,看到了我们的产品并且很喜欢,愿意支付一个合理的价格来购买,不是货比三家之后买了个最便宜的。用户买回来之后愿意长时间地去使用,发现它是有用的,而不是一个放在家里落灰的产品。我觉得这就证明我们这是一个非常成功的产品。因为如果是个落灰的产品,不管卖了多少个,其实对我们来说都没有任何意义。

AI大模型带来的想象空间

蓝鲸科技:

从你们最开始研究AR眼镜到现在,其实技术层面发生了非常大的变动,因为AI大模型有了显著的发展。Halliday眼镜的AI能力,背后接入的是大模型吗?

Carter:

我们用的是Gyges Labs开发的AI agent,它一定会运用到大模型的计算能力来完成特定的任务,让用户可以在现实生活的更多场景中应用到AI的能力。但绝对不是做某一个大模型的套壳。

图片

图片来源:Halliday

蓝鲸科技:

和上一代技术相比,这些集成了AI大模型的智能眼镜能够突破之前的哪些局限、在什么方面可能会表现得更好?

Carter:

虽然说Ray-Ban Meta的成功,很大程度上是来自Ray-Ban的品牌影响力和渠道能力,以及它这一代产品对摄像头和音响的大幅改善。但是AI大模型的出现,我觉得一定让眼镜的想象空间变大了很多。

像去年也有很多AI硬件的尝试,到现在大家有一个相对的共识,就是AI agent最好的载体应该就是在眼镜上。在这个共识的底层,就是因为今天AI大模型的成熟,让眼镜有了新的生态价值。

一方面,眼镜作为大模型或者AI agent的载体,能在更多日常化的生活场景中为用户提供帮助,它的可玩性和交互性也高了非常多。

另外一方面,眼镜不像手机一样有很大的屏幕、有非常高的分辨率和色彩丰富度。那在很长一段时间内都会面临的一个问题是,怎样能在一个有局限的屏幕内将信息最高效地呈现给用户。AI就是一个可以帮助做信息筛选和处理的、最好的中间载体。所以在AI的赋能下,很多原本普通的功能也会变得更加有可玩性,直线提升生活丝滑度。

蓝鲸科技:

你刚刚提到,去年开始的共识是AI落地的最好载体是眼镜。关于这点说法好像还挺多的,有说是耳机的,也有说是手机的,这个“共识”是不是还在进行中?

Carter:

每个人会有自己的观点,但我觉得至少大多数人现在比较主流的观点,还是作为眼镜。

我们认为有两个基本原则,第一就是尽量不要往用户身上挂现在不存在的新设备。比如你现在再让我天天背一块砖,那我觉得肯定是不合理的。第二,显示的效率就是比单纯的音频要高10倍以上,音频还有很大的漏音、精力集中的问题。比如我可以同时跟你说话,再分心看一篇文章。但我没有办法一边听东西,一边跟你讲话,这是音频交互的核心问题。

所以对于AI无缝衔接到各个生活场景的这个目标,显示是一个必选项。如果想要做显示的话,一定是放到眼睛前面效率最高。眼镜是离你的五官最近的位置,包括眼睛、鼻子、耳朵、嘴巴等五官,它可以最高效地收集信息、传递信息。这是眼镜这个生态位的存在价值。

蓝鲸科技:

如果发展到将来,你觉得眼镜和手机这两种形式会怎么演变?扎克伯格提到过,他觉得手机虽然还是会存在,但可能就放在家里、不再随身携带了,而眼镜会成为最主要的使用媒介,你认同吗?

Carter:

我觉得手机有可能会变成像一个计算单元一样放在身上。它可以和眼镜之间完成通信,这样既能显示更多的东西,又不需要大幅增加眼镜的重量。因为如果把所有计算都放在眼镜上的话,主要问题还是在电池容量和佩戴舒适性上。

我举个例子,就像随身带了一个充电宝,它不再是一个带有屏幕的手机,就是一个用来计算、进行蓝牙和互联网通信的计算单元。但是人们最主要使用的产品还是会变成眼镜。

蓝鲸科技:

那像Halliday这样的智能眼镜,最后希望面向的是什么客户人群?是否不止是有戴镜需求的人,可能还会包括不近视、不远视的人群?

Carter:

其实在美瞳行业,大概30%的用户也都是不近视的。这部分用户戴美瞳更多是为了我的眼睛看起来更有神或者尝试新的风格,眼镜也是同理。虽然今天主要是近视或者远视的需求用户才会去戴眼镜,但是如果为了特定功能而产生了戴眼镜的需求,即便不近视也会选择买一副Halliday。

蓝鲸科技:

智能眼镜最终可能达成怎样的理想形态?人们使用起来会是怎样的?

Carter:

Apple Vision Pro和Meta Orion其实让大家看到,将虚拟和现实叠加起来的一些理想形态的可能性,但它们目前的问题都还是在造价、佩戴重量和续航上。而我们在做的,首先是一个能够戴出去的眼镜,提供的可能是极简的信息功能。

我觉得现在是两条方向往中间交叉的过程。未来,随着我们的功能叠加越来越多,另一条路线的眼镜重量越来越轻,最后会在中间找到这样一个均衡点:既能戴出门,又能在一定程度上实现虚拟和现实交互的能力。

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部