智东西(公众号:zhidxcom)
作者 | ZeR0
编辑 | 漠影
智东西5月21日报道,今日,知名大模型竞技场LMSYS Chatboat Arena盲测评测结果更新,国内大模型独角兽零一万物的千亿参数闭源大模型Yi-Large在最新总榜中排名世界第七,中国大模型中第一,超过Llama-3-70B、Claude 3 Sonnet;其中文分榜更是与GPT-4o并列第一。
LMSYS Chatboat Arena由第三方非营利组织LMSYS Org发布,其盲测结果来自至今积累超过1170万的全球用户真实投票数。此次共有44款模型参赛,既包含了开源大模型Llama 3-70B,也包含了各家大厂的闭源模型。
Chatbot Arena评测过程涵盖了从用户直接参与投票到盲测,再到大规模的投票和动态更新的评分机制等多个方面,这些因素共同作用,确保了评测的客观性、权威性和专业性,能够更准确地反映出大模型在实际应用中的表现。
上周OpenAI的GPT-4o的测试版本便以“im-also-a-good-gpt2-chatbot”的马甲闯进Chatbot Arena排行榜,排名超过GPT-4-Turbo、Gemini 1 .5 Pro、Claude 3 0pus、Llama-3-70b等一众国际大厂当家基座模型。OpenAI CEO Sam Altman也在Gpt-4o发布后亲自转帖引用LMSYS arena盲测擂台的测试结果。
从最新公布的Elo评分来看,GPT-4o以1287分高居榜首,GPT-4-Turbo、Gemini 1 5 Pro、Claude 3 Opus、Yi-Large等模型则以1240左右的评分位居第二梯队。
排名前6的模型分别来自海外巨头OpenAI、Google、Anthropic,且GPT-4、Gemini 1.5 Pro等模型均为万亿级别超大参数规模的旗舰模型,其他模型也都在大几千亿参数级别。
零一万物是总榜上唯一一家自家模型进入排名前十的中国大模型企业,按机构排序位于OpenAI、Google、Anthropic之后,排名第四。Yi-Large大模型以仅千亿参数量级排名第7,评分为1236。
其后Bard(Gemini Pro)、Llama-3-70b-Instruct、Claude 3 Sonnet的成绩则下滑至1200分左右;阿里巴巴的Qwen-Max大模型Elo分数为1186,排名第12;智谱AI的GLM-4大模型Elo分数为1175,排名第15。
为了提高Chatbot Arena查询的整体质量,LMSYS还实施了重复数据删除机制,并出具了去除冗余查询后的榜单。这个新机制旨在消除过度冗余的用户提示,如过度重复的“你好”。这类冗余提示可能会影响排行榜的准确性。LMSYS公开表示,去除冗余查询后的榜单将在后续成为默认榜单。
在去除冗余查询后的总榜中, Yi-Large的Elo得分更进一步,与Claude 3 Opus、GPT-4-0125-preview并列第四。
LMSYS Chatbot Arena 盲测竞技场公开投票地址:https://arena.lmsys.org/
LMSYS Chatbot Leaderboard 评测排行(滚动更新):https://chat.lmsys.org/?leaderboard
一、把一张GPU挤出更多价值,李开复谈大模型价格战影响
据零一万物CEO李开复博士透露,实现上述出色的成绩,Yi-Large大模型尺寸不到谷歌、OpenAI的1/10,训练用的GPU算力不到他们的1/10。在这背后,一年前零一万物的GPU算力只有谷歌、OpenAI的5%;而这些海外顶级AI团队都是千人级,零一万物的模型加基础设施团队则总共不到百人。
“我们能够把同样的一张GPU挤出更多的价值来,这是今天我们能够达到这些成果的一个重要理由。”李开复说,“如果只评估千亿模型,至少在这个排行榜上是世界第一,这些点我们还是很自豪,在一年前,我们落后OpenAI跟Google开始做大模型研发的时间点有7到10年;现在,我们跟着他们差距在6个月左右,这个大大的降低。”
为什么追得这么快?零一万物模型训练负责人黄文灏博士谈道,零一万物在模型训练上的每一步决策都是正确的,包括花了很长时间提升数据质量、做scaling Law,接下来还会不断提升数据质量和做scale up。
同时,零一万物非常重视Infra的建设,算法Infra是一个协同设计的过程,这样才能把算力发挥到比较好的水平。在此过程中,其人才团队是工程、Infra、算法三位一体的。
李开复谈道,零一万物希望从最小到最大的模型都能够做到中国最好,未来可能有更小的模型发布,都会力求在同样尺寸达到业界第一梯队,而且在代码、中文、英文等很多方面表现出色;有各种较小的简单应用机会,零一万物的打法是“一个都不放过”。
他也关注到近期的大模型API价格战。李开复认为,零一万物的定价还是非常合理的,也在花很大精力希望进一步降价。
“100万个token,花十几块还是花几块钱有很大差别吗?100万个token对很大的应用、很难的应用,我觉得我们是必然之选。”他谈道,零一万物的API横跨国内外,有信心在全球范畴是一个表现好、性价比合理的模型。“到今天为止,我们刚宣布的性能肯定是国内性价比最高。大家可能有用千token、百万token,大家可以自己测算一下。”
在他看来,整个行业每年推理成本降低到之前的1/10必然会发生,今天的API模型调用比例还非常低,如果能让更多人用上,这是一个非常利好的消息。
李开复相信大模型公司不会做出不理智的双输打法,技术是最重要的,如果技术不行,就纯粹靠贴钱赔钱去做生意。万一中国以后就是这么卷,大家宁可赔光通输也不让别人赢,那零一万物就走外国市场。
黄文灏分享说,零一万物没有碰到数据荒的问题,看到数据有很多可挖掘的潜力,最近在多模态上有一些发现,能进一步增加一到两个数量级的数据量。“弱智吧”数据对模型训练质量和数据多样性的帮助,便是来自零一万物团队的想法。
二、Yi-Large:中文榜与GPT-4o并列第一,挑战性任务评测排名第二
国内大模型厂商中,智谱GLM4、阿里Qwen Max、Qwen 1.5、零一万物Yi-Large、Yi-34B-chat此次都有参与盲测。
在总榜之外,LMSYS的语言类别新增了英语、中文、法文三种语言评测。在中文语言分榜上,Yi-Large与OpenAI GPT-4o的排名并列第一,Qwen-Max和GLM-4也都排名靠前。
编程能力、长提问及最新推出的 “艰难提示词” ,这三个评测是LMSYS所给出的针对性榜单,以专业性与高难度著称。
在编程能力(Coding)排行榜上,Yi-Large的Elo分数超过Anthropic旗舰模型Claude 3 Opus,仅低于GPT-4o,与GPT-4-Turbo、GPT-4并列第二。
在长提问(Longer Query)榜单上,Yi-Large同样位列全球第二,与GPT-4-Turbo、GPT-4、Claude 3 Opus并列。
艰难提示词(Hard Prompts)类别包含来自Arena的用户提交的提示,这些提示则经过专门设计,更加复杂、要求更高、更加严格。
LMSYS认为这类提示能够测试最新语言模型面临挑战性任务时的性能。在这一榜单上,Yi-Large与GPT-4-Turbo、GPT-4、Claude 3 Opus并列第二。
三、进入后benchmark时代,盲测机制提供更公正的大模型评估
如何为大模型给出客观公正的评测一直是业内广泛关注的话题。在经过去年乱象丛生的大模型评测浪潮之后,业界对于评测集的专业性和客观性更加重视。
像Chatbot Arena这样能够提供真实用户反馈、采用盲测机制以避免操纵结果、并且能够持续更新评分体系的评测平台,不仅能够为模型提供公正的评估,还能够通过大规模的用户参与,确保评测结果的真实性和权威性。
LMSYS Org发布的Chatbot Arena凭借其新颖的“竞技场”形式、测试团队的严谨性,成为目前全球业界公认的基准标杆。
Google DeepMind首席科学家Jeff Dean曾引用LMSYS Chatbot Arena的排名数据,来佐证Bard产品的性能。
OpenAI创始团队成员Andrej Karpathy发文夸赞说:“Chatbot Arena is awesome. ”
发布Chatbot Arena评测榜的LMSYS Org是一个开放的研究组织,由加州大学伯克利分校的学生和教师、加州大学圣地亚哥分校、卡耐基梅隆大学合作创立。
零一万物模型训练负责人黄文灏博士总结说,LMSYS评测机制的题来自真实用户聊天,动态随机变化,没人能预测题目分布,也就无法对模型做单一能力的优化,客观性更好;再加上它由用户来打分,评测结果会更接近实际应用中用户的偏好。
虽然主要人员出自高校,但LMSYS的研究项目十分贴近产业,他们不仅自己开发大语言模型,而且向业内输出多种数据集(其推出的MT-Bench已是指令遵循方向的权威评测集)、评估工具,还开发用于加速大模型训练和推理的分布式系统,提供线上live大模型打擂台测试所需的算力。
Chatbot Arena借鉴了搜索引擎时代的横向对比评测思路。它首先将所有上传评测的“参赛”模型随机两两配对,以匿名模型的形式呈现在用户面前;随后号召真实用户输入自己的提示词,在不知道模型型号名称的前提下,由真实用户对两个模型产品的作答给出评价。
在盲测平台https://arena.lmsys.org/上,大模型们两两相比,用户自主输入对大模型的提问,模型A、模型B两侧分别生成两PK模型的真实结果,用户在结果下方做出投票四选一:A模型较佳、B模型较佳,两者平手,或是两者都不好。提交后,可进行下一轮PK。
通过众筹真实用户来进行线上实时盲测和匿名投票,Chatbot Arena既能减少偏见的影响,又能最大概率避免基于测试集进行刷榜的可能性,以此增加最终成绩的客观性。在经过清洗和匿名化处理后,Chatbot Arena会公开所有用户投票数据。
在收集真实用户投票数据后,LMSYS Chatbot Arena还使用Elo评分系统来量化模型的表现,进一步优化评分机制,保证排名的客观公正。
Elo评分系统是一项基于统计学原理的权威性评价体系,由匈牙利裔美国物理学家Arpad Elo博士创立,旨在量化和评估各类对弈活动的竞技水平。Elo等级分制度在国际象棋、围棋、足球、篮球、电子竞技等运动中都发挥着重要作用。
在Elo评分系统中,每个参与者都会获得基准评分。每场比赛结束后,参与者的评分会基于比赛结果进行调整。系统会根据参与者评分来计算其赢得比赛的概率,一旦低分选手击败高分选手,那么低分选手就会获得较多的分数,反之则较少。
结语:后发有后发的优势,中国人做产品强于美国
随着大模型步入商业应用,模型的实际性能亟需通过具体应用场景的严格考验。整个行业都在探索一种更为客观、公正且权威的评估体系。大模型厂商正积极参与到像Chatbot Arena这样的评测平台中,通过实际的用户反馈和专业的评测机制来证明其产品的竞争力。
李开复认为,美国擅长做突破性科研,拥有创造力特别强的一批科学家,但中国人的聪明、勤奋、努力也不容忽视,零一万物把7-10年差距降低到只有6个月,就验证了做好一个模型绝对不只是看多能写论文、多能发明新的东西、先做或后做。
“做得最好的,才是最强的,”在他看来,后发有后发的优势,美国的创造性很值得学习,“但是比执行力、比做出一个很好的体验、比做产品、比商业模式,我觉得我们强于美国公司。”
零一万物的企业级模型方向初步用户在国外,这是因为其团队判断国外用户的付费意愿或金额比国内大很多。按国内现在To B卷的情况,生意做一单赔一单,这种情况在早期AI 1.0时代太多了,零一万物团队不想这样做。
“今天可以看到的模型表现,我们超过其他模型,也欢迎不认同的友商来LMSYS打擂台,证明我是错的。但是直到那一天发生,我们会继续说我们是最好的模型。”李开复说。
查看原图 281K