客户端
游戏
无障碍

110

评论

72

136

手机看

微信扫一扫,随时随地看

中国的 DeepSeek撕掉硅谷科技界的遮羞布,美最后一块堡垒塌了

中国的 DeepSeek 与 Red Note 击碎了硅谷的自信,撕掉硅谷科技界的遮羞布,把OpenAl 、 Facebook 、 Google 的 Techbros都整不会了。

图片

AI几乎是美国在科技的最后一块优势堡垒了,美国现在在技术和经济方面主要就是就人工智能撑着,各种严防死守一直想堵死和限制住中国人工智能的发展,包括人才的交流和GPU芯片的禁售,但事与愿违,在2025年达沃斯论坛上,AI科技初创公司Scale AI创始人亚历山大·王(Alexandr Wang)公开表示,中国人工智能公司DeepSeek的AI大模型性能大致与美国最好的模型相当。

图片

而一名美国Meta的员工发文,因为DeepSeek的低成本高性能,他们公司的人工智能部门已经陷入恐慌。并称,从中国深度求索公司发布DeepSeek-V3模型开始,Meta公司重金打造的Llama 4模型,在双方的性能测试中,就没有打赢过!

而让Meta公司整个AI部门恐慌的是,DeepSeek-V3模型仅仅花费了550万美元,远低于他们部门任何一位高管的年薪!该员工透露,目前他们部门正在研究分析DeepSeek,正在尽可能抄袭。由此可见,DeepSeek已经非常强大。

图片

美国科技界开始感谢中国的生成式大模型,明明只需要不到1/50的成本就能做到的事儿,美国硅谷的众多科技企业们,活生生耗了一个小国一整年的GDP来打造这些人工智能大模型。

图片


这种在成本上的巨大差距,彻底击溃了美国科技界的认知。何况中国的大模型大多开源,美国的最初声称开源现在只剩【开放】,现在都在忙着给自己上专利保护。

图片

现在整个美国AI产业界信心遭受重创,开始怀疑Gen AI是一个夸大的骗局。中国模式的进化速度可能会改变整个人工智能行业未来的格局。原因是多方面的,首先是AI进化的范式可能要被改写了。

图片

英伟达资深研究员Jim Fan对每一次AI进展都有深刻的洞见,他不仅高度评价了DeepSeek在开源领域的贡献,还犀利地批评了Open AI“挤牙膏式”的技术发布策略——今天放个预告,明天发个代号,却始终对核心细节避而不谈。

开源对软件生态至关重要,硅谷曾以开源精神为荣,OpenAI、Meta最初都是开源领域的坚定拥护者。

但美国在AI上搞了一个封闭式的“等级制度”。最高等级盟友,可以拿全套技术;第二等级,只能拿点基础工具;第三等级,啥都别想——中国、俄罗斯、伊朗,铁打的第三等级。

但DeepSeek不仅完全开源,还公开了训练细节,甚至允许其他人用R1数据训练自己的模型。硅谷引以为傲的开源精神,反而被一家中国公司做到了极致。这或许是DeepSeek后来居上的重要原因。

一位科技行业分析师表示:“开源意味着能将更多的用户集中起来,从而与全球各地的顶尖人才合作。而现在的情况表明,最好的开源技术来自于中国,美国的研发人员也能在中国的开源系统上构建产品。”

DeepSeek已经用市面上两大开源模型——阿里的Qwen和Meta的Llama——蒸馏出了六个高性能小模型,供用户免费使用。这些模型的跑分表现极为亮眼,几乎达到了行业顶尖水平。

它还以完全开源的方式将技术细节公之于众,真正践行了“科技无国界”的理念。

UC Berkeley 教授 Alex Dimakis 直言“DeepSeek在推理模型的泛化性与成本控制上已形成代际优势,美国企业必须加速迭代才能避免技术脱钩”。

当然,开源是成功要素之一,技术路线另辟蹊径是第二个原因。

美国国内的AI一直在引导一个观点,就是要不断的堆算力堆GPU,认为硬件才是核心竞争力。但是国产大模型的训练,用了百分之一的成本,一个花了600万,一个花了几十亿,效果是一样的。梁文锋是浙大毕业,应该算团队唯一的80后了,其他大部分是清华、北大应届毕业生,还有两三年经验的其他名校毕业生,团队一百出头的人数,是OpenAI的十分之一,但搞出的DeepSeek-V3大模型投入成本只是OpenAI百分之一,达到GPT-4o水准,用的还是英伟达低配版H800训练。

那么DeepSeek如何做到这一切?关键是技术路线的创新——R1完全抛弃传统监督学习(SFT)路线,纯靠强化学习就达到了与o1相当的水平。

更惊人的是,R1只用了6710亿参数,而且每次推理仅调用370亿参数。用更少的算力,却获得了堪比o1的性能,这是对传统"堆算力"路线的彻底颠覆。

这不仅说明了美国严防死守在AI上打造的最后一块堡垒塌了,更说明美国的科技业出了问题,这似乎开始戳穿了美国AI公司,为了融资或者抬高股价,而刻意把AI大模型训练的成本进行了高估。

图片

如今特朗普总统宣布与OpenAI、甲骨文和软银成立合资企业,星际之门要砸下5000亿,如今还没开始,就已经在内杠。

现在中国低成本搞出来的AI大模型,更可能是对星际之门的一记重拳。

图片

放到星际之门上,这也让美国AI产业界不得不开始思考一个问题,砸5000亿搞出来的AI项目,会不会最终与中国几十个亿砸出来的项目效果是一样的?

当然了,算力还在进步,大模型不能算做决定性优势。决定性因素在于,DeepSeek-R1成为首个无需监督微调,通过纯粹的强化学习来实现卓越推理能力的大型开源模型,打破了以往模型开发的传统思维框架——

由理想主义色彩的公司去训练更大更好的模型,然后开源出来,各个行业利用这个更大更好的模型去蒸馏各个领域的专用模型,此后整个行业形成了一条分工协作的产业链,上下游企业各司其职,各自发挥比较优势,一旦这样的格局形成,那么中国的全产业链优势就能发挥了,算力卡脖子的问题也解决了,蒸馏和微调用国产算力足以应对。

也就是说这玩意儿是不要老师的,不要老师就意味着老师的水平再也不是它的上限。

其四:最顶尖的AI人才或许不在海外,这让美国更崩溃

在过去,很多大模型公司都执着去海外挖人,认为这个领域的前50的人才都在海外,但是V2模型没有海外回来的人,这其实也证明了顶尖的AI人才是本土可以培养的,未来的顶尖人才更可能在中国。

2025年1月17日,港媒《南华早报》发表文章称,中国在2024年拥有的世界最高层次科学技术人才数量达到32000多人,而美国则跌到了31000多人,中国在顶尖科技人才数量上首次超越美国。这可能才是开始,当美国丧失人才优势的时候,美国的科技护城河又来自哪里?

图片

美国标准主导权的丧失。

以前每次行业标准制定的这种机会,都是美国占尽先机。Android是一次,Pytorch是一次。他先做的最好,然后所有人都用这个,然后就变成事实标准了,本来AI也是历史重演的轮回,看上去大模型开源事实标准这个东西再一次要被meta拿走了。

结果没成想qwen强势出圈,9月 o1发布,核心技术路线四个月过去直接被deepseek搞了出来,全部开源。之前还说700b的模型又是专属架构我们跑不了,这回直接发蒸馏模型,vllm加速之类的全部兼容。

这意味着以后全世界的工程师都可能会从qwen和ds开始学习大模型。如果按照这个趋势发展,我们或许可以看到互联网产业第一次由中国公司掌握基建标准的案例。

这是一个标志性事件,意味着中美AI竞争形势也开始发生扭转,2025年,中美在人工智能科技领域将决出胜负,美国最后一块科技护城河与堡垒可能要坍塌了。

作者:王新喜 TMT资深评论人 本文未经许可谢绝转载

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部