文:董指导
探索下一个爆款,成为消费电子各路玩家的心心念。
AR眼镜则因其显著的增速,也被寄予厚望。而当下,2022年末掀起的大模型、生成式AI热浪,正席卷了各行各业。
于是,AI和眼镜的碰撞,也成为CES2025展会上最吸睛的产品。消费电子的智能新时代,会开启吗?
01 需求真伪:AR眼镜的重大变化
如今全球最高市值公司之一的英伟达,在创业第一年、发布的第一款图像处理芯片,就遭遇了重大失败。虽然采用了最新的技术、还在图像功能之余增加了音频功能,但自嗨的设计,消费者并不买单。
这种情况,在XR领域也一度是个令人头疼的问题。创业者们过于期待“终极方案”,希望用一个产品、多个功能,像苹果iPhone一样成为定义者;但却适得其反。
功能的堆积,导致产品重量过大、价格过高,迟迟没有迎来引爆点。
最近几年,伪需求的状况,已经开始被重视。
国内AR眼镜公司雷鸟创新,通过用户调研数据发现,91%的分体式AR眼镜用户的主要使用场景都是观影和游戏,沉浸式娱乐才是用户真正的需求,而非复杂的多任务应用交互。但事实上,大量的AR公司却都在用户使用9%的场景中投入了90%的研发精力。也是用自嗨的定义,忽略了真实需求。
于是,雷鸟摒弃了行业常用的大而全的做法,而是聚焦特定场景。将那些不需要的功能砍去,也意味着产品重量降低、价格降低。最终,成本、场景、技术得到了良好匹配。消费者也开始为此买单,月活数、使用时长都有了显著上升。
只要进入大众圈、用户用起来了,产品迭代才更有数据可依,有方向可循。
这就是AR眼镜和过去几年相比,非常大的变化。不再只是仰望星空、自嗨在技术的星辰大海里,而是更切实际、从细分场景出发,用不断迭代的方式,用一个个小需求的叠加,来跨过创新的“死亡谷”。
这个做法其实也不罕见。华为也曾说过,在攀登珠峰的征程中沿途下蛋,用多场景化的解决方案来消化客户的需求。
客户最渴望的需求,也不是一成不变的。随着AI爆发,消费者也希望眼镜可以更智能、体验更酷炫。大模型的多模态能力,让交互更加方便,语音、图像都可以实时互动。这意味着除了娱乐之外,AR眼镜配上AI能力,也可以向生产力效率工具拓展。
比如海外消息称,亚马逊正计划开发一款智能眼镜,可以在屏幕上显示建筑附近、及建筑内的详细路线导航,规避了抱着货物用手机的不便,帮助快递小哥解决配送的“最后一公里”。
然而,亚马逊的眼镜还没发布,却被路人发现,快递小哥已经戴上智能眼镜了。而经过辨认后发现,正是中国品牌、雷鸟创新的产品。快递小哥可以借助AI能力,用眼镜识别订单、用语音执行相关操作,流程会大幅缩减。
眼镜的轻便性可以让用户随时与AI交互,而无需像手机那样掏出、放入的操作;也可以集成多种感官效果,场景更多:也许帮助视障人群,成为他们的另一双眼镜。或许也可以在用户安装家具时,对其进行现场指导,解决用户面对复杂安装图的困扰等等。
AI技术的诞生,也催生着新需求。那么,把AI装进眼镜里,总共要几步?
02 把AI装进眼镜,总共要几步?
套用宋丹丹老师的名言,把AI装进眼镜里总共需要三步:第一步,把芯片接口打开;第二步把大模型装进去;第三步,把盖子盖上。
看似简单的三步走,实际上却有多道关。
大模型想要的多,眼镜能给的少。大模型之所以能力强,是因其参数规模大、算力要求高,如果按照通用能力来设计,那么大模型进眼镜,也意味着芯片体积、功耗都会有所增加。这对于一直追求减重、避免发热的AR眼镜而言,真的不想给。因此,必须有更好的芯片和模型设计。
真正的“AI Agent”必须是软硬件能力的深度融合。仅依靠大模型本身难以实现真正的智能交互,需要通过Agent架构来强化AI的决策能力、交互能力和场景适应能力。
然而,AR眼镜厂商擅长解决光学等硬件产品问题,但对于动辄需要千万张显卡来训练的大模型,要想独立开发,不仅烧钱、也缺乏相应技术和人才。
不少眼镜厂商就选择了直接采购基础大模型、或选用开源大模型,植入产品即可。但这种做法的产品体验并不佳。比如,基础模型的通用性好、成本低,但也会面临功能冗余、从而导致功耗白白浪费。各家厂商都选用基础模型,能实现的功能和场景也非常类似。
大模型厂商直接做眼镜,一方面也要解决模型问题;另一方面,面对硬件、软件的差异,互联网公司做硬件的难度,也已经被多个案例证实。
所以,把AI装进眼镜,容易;让眼镜用好AI、让用户享受AI,那就需要花点心思了。
03 新CP,新期待
眼镜厂商找家大模型公司定制开发一套模型,不就好了吗?这个直接的想法,理论可行,但商业上却不是想当然就可以。
比如当年苹果发布初代iPhone手机之前,就找来了英特尔,希望能开发一款针对iPhone的处理芯片。但当时英特尔主要产品都是电脑芯片,要做手机芯片也意味着定制化开发。英特尔思来想去,觉得投入产出不划算,于是就放弃了。最终错过了苹果、也错过了移动浪潮。
由此可见,定制化并不是家常话,这往往意味着初期高昂的成本。如果没有对未来的展望和信心,有规模化销量来平摊成本,那么定制化要么很难实施、要么无利可图。
不定制化开发模型,就很难提升AI眼镜的使用体验,无法加速销售规模扩大;没有大规模销售,又很难做出定制化开发的决策。
一个“蛋生鸡、鸡生蛋”的问题,总要有人来率先打破“僵局”。1月2日,雷鸟创新 RayNeo和阿里云举行了战略签约,宣布在AI眼镜领域达成独家深度合作。
所谓独家,就是阿里云以通义系列大模型底座,针对雷鸟AI眼镜的场景和硬件特点,设计了整体多模态交互架构,定制化开发“云+端”模型,帮助产品实现高响应、低延迟、高质量的多模态AI交互体验。同时,双方还将围绕眼镜产品的实际使用场景,开展功能定制和开发,并持续在雷鸟AI眼镜产品上迭代更新。
以用户感知度最为敏感的交互速度为例,一般来说,AI大模型的响应时间在4~6秒,而搭载了定制模型的雷鸟V3响应速度却可以做到1.3s,其背后正是基于双方联合定制的眼镜识别模型。除了快,准确率和应用场景也是双方本次合作的关键点。
场景上,AI翻译为例,常规的AI翻译模型并不会与具体的场景进行深入融合,导致翻译的内容生硬,且整体的体验会有较明显的延迟。因此,雷鸟和阿里云针对旅行、点餐、购物等多个细分场景做了优化,借助AR眼镜去识别当前的环境、对话人的表情、手势等多个信息源,更好地理解用户的使用场景,从而给出更准确的翻译结果。
不同场景下,对硬件能力要求也不同。所以,双方的合作,不仅限于无光学显示的AI 眼镜(比如V3),也包括AI+AR眼镜(比如X3 Pro),以及未来其他智能眼镜产品。
雷鸟V3在1 月 7 日 CES 期间正式发布,是首款搭载了雷鸟和阿里云合作的大模型生态的产品;而高通骁龙 AR 1 芯片、独家定制镜头等硬件,也会让大模型的能力得到更好发挥。
2025年Q2会发布的雷鸟 X3 Pro,加入了业内最领先的全彩Micro-LED和无彩虹纹光波导方案,即使在强光环境下,也能保持屏幕信息清晰可见,从而可以让用户在复杂环境下享受AI,包括实时语音和图像翻译、自动音频纪要、智能问答、物体识别等。
这次合作,也是“胆识”的验证。
因为这不仅是阿里云在 AI 眼镜领域唯一一个战略级合作,而且也是一个有“排他性”的合作。定制化方面,通义承诺不与其他AI智能眼镜公司达成战略层级合作或提供技术定制服务;雷鸟创新也不得绕开协议限制,通过成立其他品牌或公司方式展开与其他AI厂商合作。
可以说,在定制方面,“这对CP绑定了”。
为了让AI和眼镜结合更紧密,雷鸟也构建了自己的AI能力矩阵。比如雷鸟另一个团队雷鸟科技自主研发了AI社交应用ChatBird,将大模型的多Agent框架与虚拟社交场景结合,实现了智能交互。
通过构建评判Agent与行为评分机制,系统不仅能实时评估用户行为,还能提供真实的情绪反馈;通过采用多Agent并发框架,有效解决了大模型在实际应用中的计算复杂度高、推理延迟等技术难题;通过任务细粒度拆分的方法,则显著提升了模型的表现力和稳定性。
ChatBird的创新,迎来了用户的认可。用户活跃度高达98.2%;日均单用户使用时长业大道14.2小时。同时,ChatBird也入选了量子位"2024年度最受欢迎的AIGC产品"。
数据背后的技术实力,既是阿里云敢于“绑定”的原因,也为雷鸟进一步的AI创新奠定了基础。
04 结语
提起商业CP,很容易想到微软和英特尔的Wintel组合,双方软硬结合,不仅加强了两家公司的竞争实力,也推动了个人电脑的普及,不断改善着消费者的使用体验。
当商业发展再次来到一个新消费电子品类(智能眼镜)、新技术(大模型/生成式AI)应用起点时,雷鸟和阿里云的深度合作,就不再只是一个常规合作。
也许若干年后来看,这个合作让智能眼镜,成为了现实世界和AI世界互动的重要桥梁。不仅是智能设备的进化,也是人机交互方式的革新,加速着AI时代的到来。
---全文完,欢迎交流
理工/金融 复合背景,
百亿私募/头部自媒体 双重经历
懂商业更懂科技,前瞻发现新机遇