《Fan谈大模型》第二期|CEO眼中的2025年AI新机遇
作者丨程潇熠
编辑丨叶锦言
出品丨深网·腾讯新闻小满工作室
过去一年多的时间里,AI对我们的生活到底带来了哪些变化?所谓的“AI变革”什么时候能到来?
“一般大家很容易想到两件事情,叫降本增效。”国内大模型六小龙之一的智谱CEO张鹏在《Fan谈大模型》节目上称,AI很容易去做降本增效的事,但这并不是变革。
在他看来,AI带来的真正的变革应该是带来新的“解法”。比如颠覆以往人类为了提高效率而总结提炼的标准化流程,由AI制定工作流程与环节,让工作在“非标准化”的情况也能更好的完成。
人们期待AI能够带来变革和创新,打破陈规,AI背后的团队也渴望有创新思维的人才。张鹏引用了Anthropic公司CEO的观点以具象这一需求:
“AI团队一定要非常年轻。这个年轻不是说年纪轻,而是你的心态年轻、知识结构年轻。”张鹏称,所有领域里顶尖的创新,绝大部分都来自领域的新人。“所谓新人不在乎你40岁还是50岁,是你刚进入这个领域,没有受到领域里很多固有成见和条条框框的约束,可以天马行空的去想、去设计、去验证。看你敢不敢去挑战旧有规则和框架。”
11月21日,张鹏做客腾讯新闻小满工作室AI光年联合职场社区和社交平台脉脉共同打造的原创直播节目《Fan谈大模型》,与昔日清华同窗、脉脉创始人兼CEO、《Fan谈大模型》节目主理人林凡一起,深度探讨Scaling Law是否失效?AI商业落地情况以及未来的AI新机遇等重要话题。
《AI光年》根据对谈整理核心观点如下(讨论仅为交流学习,《AI光年》无商业倾向):
大模型与传统机器学习最大的区别:举一反三和“抄”答案
人工智能、机器学习、深度学习、大模型,这四个概念总是频繁出现在科技报道中,它们之间的关系到底是什么?
其实它们的关系从层级上可以简单理解为:大模型是深度学习的子集、深度学习是机器学习的子集、机器学习是人工智能的一个分支。
从本质上来说,它们都是通过算法让计算机利用数据进行学习,以提高性能或做出预测。
“传统的机器学习学到的是从表象到结果之间的一个shortcut(捷径),并不学习整个过程当中的思考路径。”张鹏在《Fan谈大模型》节目中称,这种学习不能解决通用性问题,而大模型学习的是人类解决问题的思考机制、学习知识的学习机制。
“Scaling Law是对现象的总结,它仍然起效”
新事物产生后,人们总是希望能总结归纳出一个确定的技术进步发展规律。英特尔联合创始人戈登·摩尔提出了计算机硬件技术进步发展规律——摩尔定律,引爆大模型热潮的OpenAI提出了AI模型性能的扩展规律——Scaling Law。
Scaling Law指的是,模型的性能主要与计算量、模型参数量和训练数据量的大小有关。“所谓大语言模型碰到Scaling Law的天花板,有部分原因是模型参数量不再往上升了。”张鹏在《Fan谈大模型》节目中说,因为数据增长速度放缓,“越大的参数量越需要越多的数据。”
“Scaling Law不能叫科学规律,它是对现象的总结。”张鹏说,大语言模型的数据见顶,Scaling Law在这个领域没有办法继续提升,但对于多模态模型来说,能用的数据规模还非常大,所以Scaling Law在多模态模型发展上仍然起效。
大语言模型和多模态模型的主要区别在于它们处理的数据类型和应用场景。
大语言模型主要关注文本数据,而多模态模型则能够处理和整合多种类型的数据,包括但不限于文本、图像、视频和语音。多模态模型的目标是实现不同数据类型之间的交叉理解和应用,以提供更全面和深入的分析和交互。
张鹏认为大模型如今的发展速度仍然非常快,“为什么大家体感上大模型发展放缓?因为第一次阶跃给大家的冲击感太强了。”除此之外,大模型也在不断的补充“短板”项目,“去年大家还在围绕大语言模型讨论,今年除了大语言模型还有多模态模型。”
“就像我们突然从每小时60公里的绿皮火车,一下变成了250公里/小时的高铁,这时候体感非常强烈。但作为从业者,我把高铁从250公里的时速提到300公里也是一个巨大的进展,但体感没那么强了。”林凡补充道。
另外,为什么大模型需要补足“短板”?
张鹏回答,正如在现实世界,人和人交流、与世界交互时,各种感官都是同时工作的,“哪怕我们俩只是说说话,我眼睛看你和不看你完全是两种感觉。”
在他看来,C端应用成熟的基础是“各个模态的能力至少要达到一定水准线,没有明显的短板。”
“我们今年花了很大的精力在多模态上,因为大语言相对成熟而且多模态的短板需要补上,这样应对复杂任务时能力比较齐整,这是你登上下一步或者说应用爆发的前提必要条件。”张鹏说。
今年7月,智谱AI上线了对标Sora的视频生成模型 “智谱清影”;8月,智谱在对标ChatGPT的智谱清言产品中上线“视频通话”功能,以及一系列多模态模型,包括:图像及视频理解模型GLM-4V-Plus、文生图模型CogView-3-Plus;10月,上线情感语音模型GLM-4-Voice;11月,“新清影”发布,同时还公布了Agent战略,包括能操控手机的AutoGLM和电脑的GLM-PC。
林凡对AutoGLM产品形态持保留态度,认为它只是中间阶段的产品,理论上应该用AI代替人工操作,但理想状态是AI通过API直接执行任务,未来AI的交互界面将不同于当前形式。
“AI可能最终极的状态是流浪地球2电影呈现的那样,但为什么现在这件事(让AI操作依照人类操作习惯设计的智能设备)它也很有意义呢?”张鹏进一步解释,“我们不可能一下就来到一个全新的世界,让所有的东西都按我们最终设计的场景去准备。”
张鹏承认这种技术是过渡性的,但也有其价值与意义,一方面能利用好原有的资源,比如大量的APP、大量已有的用户界面,另一方面也能确保安全——人类完全有能力监督和判断AI做的对不对,举动是否有风险,也能限制AI的行为。
林凡认为2025年将是面向消费者(C端)的大模型创业的黄金时期,因为多模态技术将引发重大变革,尤其是语音交互能力将显著增强。这一变革将与多模态技术和端侧模型技术紧密结合,形成强大的联动效应。
图源:智谱AI官网
GPT-O1最令人惊艳的能力:反思
AI幻觉是导致大模型“胡说八道”的元凶之一。今年7月《歌手》节目引发了网友对于“13.8%和13.11%谁大谁小”的激烈讨论,有网友将这一问题抛给大模型,却得出了13.11比13.8大,这一反数学常识的答案。
“你要知道缸中大脑绝对会做梦。”张鹏称,和人相比,AI没有物理世界对它的束缚和矫正。“人为什么很少胡说八道?在于你有很多感官和认知在交叉验证,你不能指着一个亮着的屏幕说这个屏幕现在是黑着的。”
在张鹏看来,消灭AI幻觉需要让模型接受更多的信息,增加本身的逻辑判断能力。GPT-o1的惊艳之处,正在于它有一定的反思能力和试错能力。“错了它会知道它错了,它会退回来,再往正确的方向尝试。”张鹏说技术在不断演进,能做的事情还很多。
另外,张鹏认为AI幻觉不是纯粹的技术问题,还是个社会性问题。“人是社会动物,大家的共识和规则是信赖的基石,我信不信你很多时候要有法律做保障。”所以,需要有比较完善的制度和规范来约束AI,以及在AI出现问题的时候能有依据去判定责任。
“其实今天的AI幻觉,它的损害性已经小于你从搜索获取的内容,甚至AI的能力要比你自己去找一些身边懂医的朋友要强很多。”林凡在《Fan谈大模型》节目上称。
AI常被用来降本增效,但更应用在改变流程
这一轮的AI的变革到底在哪儿?“一般大家很容易想到两件事情,叫降本增效。”张鹏称AI很容易去做降本增效的事,但这并不是变革。
AI与人的工作方式不一样,效率不一样,所以张鹏认为更要改变的、更核心的是SOP。SOP是标准操作程序(Standard Operating Procedure)的缩写,指的是为确保工作或生产过程的一致性和可重复性而制定的详细书面指导文件。
范式变化才算是创新。将马车改造的跑的更快,乘坐更舒适只是增量式变化,内燃机驱动的汽车出现才算是变革式变化。“这个东西才会产生最大量的价值。”张鹏说。
张鹏认为,在AI爆发前,将工作、事项等标准化是主要趋势,即用有限的资源做最大限度的事情,但AI可以“解放”标准化,用更高的效率,在非标准化的情况下完成更多样性、千人千面的事。
张鹏提出AI和流程化工作结合分为四个阶段:第一阶段,人制定工作流程,AI作为工具被使用;第二阶段,AI懂全流程,在全流程作为辅助但干预不了流程,也叫Copilot;第三阶段,让AI的能力侵入流程,整个流程中一些步骤由AI完成,人负责监管并只在关键环节做确认和决策;第四阶段,将工作流程交给AI去定制。
AI For Science能改变整个社会演进速度
“你能想象心理医生被机器代替吗?之前绝对不可能,现在不能说代替,至少能做到辅助。”张鹏聊到目前的AI应用发展时称,AI能根据谈话内容的上下文捕捉你的情感和情绪,做精神分析的同时再给出灵活的话术指导。“它不是照本宣科了,它现在表现更像一个专家。”
除此之外,目前AI在教育、医疗问诊方面正在快速落地。
“今年的几千名新生,每人配一个AI助手。”张鹏回忆,以前在清华上课时,每到学期末要考试,一个班几十上百个学生都会涌向老师问问题。“AI是不休息的,7*24小时随时可以问,给你的答案也不是套路化的,而是match你的问题和情况,就像老师一样,把这事吃透了,从原理上回答你。”
清华AI助手底层模型能力来自智谱,张鹏称,问的问题中95%以上都能得到正确的答案。最重要的是“你可以反复问,反正AI也不嫌你烦。”
“AI最不缺的就是耐心。”林凡看到了不少潜在的AI陪伴场景,“人年纪大了很多时候需要一个倾听者,也可以用AI帮助老年人写自传。”
在前沿科技上,AI也在降低研发成本。
张鹏举例,“一位清华毕业的师弟,创业正在(利用AI)做定制的疫苗,也就是靶向疫苗。根据你的基因测序定向给你设计专用的疫苗,初步的效果非常好。”
“我们在聊AI这个事情总是会走向能源问题,而能源只有一件事,就是可控核聚变。”张鹏在《Fan谈大模型》节目中称,可控核聚变无论是造实验装置还是做实验,都成本巨大,成功概率也无法保证。“但有了AI后,很多事情可以通过数值模拟在虚拟世界里完成,效率提升非常大,类似的事情非常多。”
“AI for science可以真正从根上改变整个社会演进速度,比对人工智能的L1-L5,这件事情可能在L4或L5阶别。”张鹏说。
图源:智谱AI官网
AI团队更需要“年轻人”
根据脉脉高聘人才智库对大模型从业者的调研,主动选择进入大模型领域的从业者占比高达82.44%。其中对大模型技术有兴趣(43.51%)和认为行业有发展前景(34.35%)是吸引大多数从业者加入的主要因素。
在从事大模型相关工作后,52.64%的从业者实现了不同程度的涨薪。有15.8%的人涨薪幅度高达50%,35.5%的人涨薪幅度在30%以上。
“脉脉上有非常多公司在招AI人才,有一部分被定义为‘AI原生人才’,我们在研究的时候发现,AI原生人才并不需要你科班出身,而是得能够用AI的方式思考。”林凡称,非技术人才要想转型至AI行业至少要在日常生活中高频率的使用大模型,“有一个很好的检验标准,如果你能一天和AI聊10次以上,那你基本就是AI原生人才了。”
张鹏称,智谱是从学校科研团队走出来的公司,但发展到今天不光需要技术或科研型人才。“未来我们要让产品走向更多普通人和开发者,也招社区的运营、媒体人员、讲师等等。我们信奉团队的力量一定大于个人的力量,所以招进来的每个人都希望他以团队的荣誉和成就为主要目的。”
当被问及招聘标准,张鹏说了两点:学习能力和创新思维。
“起点很重要,但起点只代表你过去积累下来的东西,你未来的成长空间,能再往上提升多少取决于你的学习能力。”张鹏透露,面试时会考察面试者在技术领域和商业领域掌握信息的速度和质量。
一个人是否有创新思维一般来说较难判断,张鹏引用了Anthropic公司CEO的观点,“AI团队一定要非常年轻。”
“这个年轻不是说年纪轻,而是你的心态年轻、知识结构年轻。”张鹏解释,所有领域里顶尖的创新,绝大部分都来自领域的新人。“所谓新人不在乎你40岁还是50岁,是你刚进入这个领域,没有受到领域里很多固有成见和条条框框的约束,可以天马行空的去想、去设计、去验证。看你敢不敢去挑战旧有规则和框架。”