1.图灵奖得主Yann LeCun犀利点评硅谷对DeepSeek的质疑,将其比作一种"疾病"。
2.他指出,硅谷某些小圈子中蔓延的优越感导致了对来自他处的创新的错误认知。
3.然而,DeepSeek的成功恰恰验证了LeCun的观点:创新不应被垄断,技术进步需要开放共享。
4.事实上,DeepSeek的成功引发了某些硅谷公司的不安与抵制,如马斯克对DeepSeek使用大量英伟达显卡提出质疑,微软则声称要调查其是否不当使用OpenAI的数据。
5.LeCun呼吁开放的科学精神,认为科技进步的真正动力在于开放和合作。
以上内容由腾讯混元大模型生成,仅供参考
(关注公众号设为🌟标,获取AI深度洞察)
中文翻译如下:
硅谷某些圈子中的一种常见病:一种错位的优越感:
晚期症状:认为自己的小团体垄断了好主意。 末期症状:认为来自他处的创新是通过欺骗手段获得的。 科技进步在更多有才华的人参与,并分享他们的创新时发展得更快。事实上,这就是原因:
科学界围绕出版物和工具共享进行组织 开发者社区围绕开源组织 专利制度存在(尽管对于软件和服务来说已经过时且适得其反):你可能会获得政府对发明使用的短期独占权,但作为交换,你必须披露足够的信息,以便他人能够复制并在其基础上进行构建。
近期,当DeepSeek(深度求索)的AI突破引发全球瞩目时,一些硅谷巨头却开始了集体"质疑"。美国商务部长提名人卢特尼克指控DeepSeek"盗取美国技术",扬言要对中国征收最高关税;特朗普团队筹划进一步收紧英伟达对华销售限制;就连马斯克也坐不住了,对DeepSeek R1模型的训练成本提出质疑。
正是在这一系列质疑闹剧声中,昨天2月1日,图灵奖得主、Meta首席AI科学家Yann LeCun在领英上发表了一针见血的评论。他将某些硅谷圈子中蔓延的优越感比作一种"疾病":
"硅谷某些小圈子中的一种常见病:一种错位的优越感:
晚期症状:认为自己的小团体垄断了好主意。
末期症状:认为来自他处的创新是通过欺骗手段获得的。
硅谷“创新霸权”的三大病状。
杨立昆的评论直指当前AI领域日益严重的技术民族主义倾向。作为深度学习领域的开创者之一,他强调:"科技进步在更多有才华的人参与并分享他们的创新时发展得更快。"这一观点不仅是对当前争议的回应,更揭示了全球科技创新的本质。硅谷公司长期以来以“创新灯塔”自居,但其行为却常常与开放、合作的科技精神背道而驰。
病状一:封闭生态的垄断游戏——以Meta“开源双标”为例
杨立昆曾力推Meta开源大模型LLaMA,宣称要“打破技术垄断”。然而,2023年LLaMA 2发布时,Meta 却新增限制条款:禁止月活超7亿的用户免费使用。此举被开发者社区痛批“假开源,真圈地”——既用开源名义吸引社区贡献,又通过条款将潜在竞争者(如TikTok、腾讯)排除在外。
更讽刺的是,当中国公司深度求索(DeepSeek)基于开源生态推出高性能模型时,硅谷立刻出现“抄袭论”声浪。“他们用开源代码时叫‘协作’,别人优化后超越就叫‘剽窃’?” 一名欧洲AI研究员在社交媒体反讽。
病状二:双标打压——从“开放灯塔”到“技术护城河”
案例1:OpenAI的“闭源化堕落”
OpenAI成立初期以“非营利”“开放”为旗帜,吸引全球人才参与GPT-3研发。但2023年与微软深度绑定后,其代码库彻底封闭,甚至被曝要求员工签署“保密协议禁止讨论AI风险”。他们用开源社区的营养喂大了模型,转身就关上了大门。。
案例2:谷歌的“专利大棒”
2024年初,谷歌起诉一家印度AI初创公司,称其语音识别技术“侵犯专利”。然而调查发现,该专利涉及的神经网络架构早就在多篇论文中公开讨论。“这就像声称‘独家拥有加法运算’一样荒谬。” 印度开发者联盟公开谴责,“硅谷公司正在用法律武器阻止后来者追赶。”
病状三:技术霸权背后的焦虑——惧怕真正的公平竞争
硅谷的傲慢本质是对失去主导权的恐惧。数据显示:比如,在主要国家人工智能顶级论文数量占比上,中国占比36.7%,美国占比22.6%,而DeepSeek等公司的模型训练成本仅为硅谷同行的三十分之一。当技术代差缩小,硅谷公司不再依赖创新本身,而是转向三大“盘外招”:
舆论抹黑:通过媒体渲染“中国AI威胁论”,将技术竞争政治化;
人才虹吸:以高薪和签证政策垄断全球顶尖AI人才,仅OpenAI就从谷歌、Meta挖角超100名核心工程师;
资本捆绑:微软、谷歌等通过投资协议要求被投企业“不得使用竞争对手的基础模型”。
倡导开放的科学精神
他一直强调,科技进步的真正动力在于开放和合作。并且指出:
科学界通过出版物和工具共享推动知识传播;
开发者社区通过开源协作加速技术创新;
专利系统的初衷也是通过公开技术细节,促进更多人在此基础上创新。
然而,某些硅谷公司却试图通过封闭和垄断来维持自己的优势。这种行为不仅违背了科技发展的基本精神,还可能阻碍全球AI技术的进步。
DeepSeek:开源模型的创新典范
技术创新的典范
DeepSeek在AI领域的创新令人瞩目。其R1系列不仅实现了部分开源,还在训练方法上开创新路。通过直接将强化学习应用于基础模型,DeepSeek-R1-Zero证明了无需大量监督微调数据也能获得强大的推理能力。这一突破性成果在AIME 2024基准测试中,达到86.7%的准确率,甚至超过了OpenAI o1的表现。更令人注目的是其高效的训练方法。DeepSeek-V3仅用2048块英伟达H800 GPU、约557.6万美元的成本,就达到了接近GPT-4o等顶尖模型的性能水平。相比之下,其他顶级模型往往需要上万块GPU和近1亿美元的训练成本。这种高效创新引发了全球AI界的广泛关注,英伟达高级研究科学家Jim Fan甚至称其为"开源大语言模型领域的最大黑马"。
创新遭遇的阻力
然而,DeepSeek的成功却引发了某些硅谷公司的不安与抵制。包括马斯克对DeepSeek使用大量英伟达显卡提出质疑,微软则声称要调查其是否不当使用OpenAI的数据。这些质疑的背后,折射出硅谷科技巨头对新兴竞争者的戒备和焦虑。
事实上,DeepSeek的成功恰恰验证了LeCun的观点:创新不应被垄断,技术进步需要开放共享。通过开源模型权重、允许商业使用和衍生开发,DeepSeek展现了对开放创新的承诺。
正如Scale AI创始人亚历山大·王所言:"这个领域的竞争越来越激烈,而不是越来越少。" 在全球化的科技竞争中,任何试图通过技术垄断维持优势的做法终将失败。历史早已证明:当创新的火种遍地开花时,垄断终将败给开放。
【往期回顾】
参考资料:https://x.com/ylecun/status/1885373733822398704
来源:官方媒体/网络新闻
编辑:深思
主编: 图灵