作者 吴彬
编辑 郑可君
北京时间10月10日,在2024VDC(vivo开发者大会)上,vivo公布了全新的AI战略“蓝心智能”。vivo副总裁、AI全球研究院院长周围表示蓝心智能是一个基于蓝心大模型打造的与手机操作系统深度融合的个人智能,而在这套战略中,两个核心包括了此次VDC上发布的3B端侧模型以及PhoneGPT手机智能体。
在去年的VDC上,vivo首次公布了蓝心大模型,其拥有十亿、百亿、千亿三个参数量级的模型,并且在端侧跑通了1B、7B、13B三个端侧大模型。
今年vivo基于联发科和高通全新3nm芯片使用更加成熟的工艺,在片上实现了3B级别的端侧模型常驻。
根据vivo在发布会上给出的数据,这套3B的模型,相较去年的7B模型,在平衡模式下的功耗优化达46%,极限出词速度达80字/s,系统功耗只有450mA,内存占用仅1.4GB。这意味着这套3B模型的整体效率要比之前的7B更好,整体的生成式内容的学习速度也要比去年的1B模型更高效。
对于如何确定端侧模型的规模量,vivo AI系统智能负责人熊官敬在会后向腾讯科技表示,在确定规模量级时,得益于全新芯片功耗控制以及压缩算法的更新,在vivo的多项测试验证中,3B级别的模型,已经可以实现大部分原有7B模型的能力,同时3B小模型的效率和能耗要比7B更好,更适合常驻于智能手机中。
“我们验证过后认为3B模型是最平衡的模型量级”,熊官敬表示。
除了端侧的3B基础模型外,vivo还推出了全新的蓝心语音大模型,可以准确理解自然语义,模拟人声,表达情感,支持同声传译。另外继续升级了图像和多模态大模型,提升了图片生成的多样性以及视觉感知的能力。
基于多种全新模型的矩阵,vivo开发了手机智能体“PhoneGPT”。相较去年的“蓝心小V”,在全新的智能体PhoneGPT加持下的AI可以实现更多多模态的能力,包括了屏幕识别,圈选搜索、主动式的语音连续对话等功能。
vivo在发布会上展示了基于PhoneGPT在操作系统上首次实现的AI“语义理解+自主完成操作”的能力,通过手机的AI助手完成订餐的全过程,在原有的操作系统中,AI无法打通语义理解,屏幕识别,操作学习等过程,但在这套PhoneGPT智能体加持下,整个的订餐过程简化为全部由人机交互语音完成。
而为了丰富AI未来在操作系统内的自主操作多样性,vivo还在发布会上公布了基于PhoneGPT的第三方接入框架,通过打包和API的,让第三方的厂商可以快速接入到vivo的AI生态系统中来,从而实现智能体更丰富的操作体验。
vivo在会上宣布了这套智能体会在OriginOS 5中上线,这也会是vivo首次将AI生态系统和手机操作操作系统深度融合的系统版本。
周围在和腾讯科技的对话中表示,vivo希望在手机AI转型的第二年,让AI从去年更多的被动型应用能力向主动型的人工智能去转变。借助更好的能耗控制,以及更效率的端侧模型,与传统的智能手机系统相结合,改变智能手机的体验。
“去年厂商做大模型都更看重基础的能力,今年vivo想要重新打造AI在手机上的体验,所以我们引入了3B端侧模型以及PhoneGPT智能体,它们的结合会让传统的系统和AI智能体结合的更紧密。”周围在谈到模型和智能体的关系时这样解释。
常驻在系统内的3B模型,在新的系统中会承担更多工作。周围表示vivo的愿景是通过AI智能体的加持,帮助用户更简单的处理日常手机使用中的各项任务,“vivo不想创造新的手机使用方式,我们更多的是想通过AI帮助用户简化手机的使用过程”。
在被问及如何看待AI时代的智能手机竞争时,周围表示AI会提供给传统的手机厂商更多自主研发的空间,这意味着更多个性化机会正在出现。未来人工智能会成为各个厂商手机产品体验差异的分水岭。
“竞争会有,但是每个厂商发展的方向有可能是不同的”,周围说到。