划重点
01国内对冲基金幻方公司发布DeepSeek-V3模型,在2048个H800GPU集群上训练仅需3.7天,成本降至557.6万美元。
02DeepSeek-V3多项评测达到并超过OpenAI GPT-4,性能超越其他开源模型。
03与此同时,DeepSeek公司宣布全新系列模型DeepSeek-V3首个版本上线并同步开源,API服务价格更低。
04尽管如此,OpenAI CEO发文强调创新的困难,但投资者仍应考虑前沿模型是否为好的投资。
05互联网巨头在AI领域竞争激烈,2024年资本支出预计将达到约3000亿美元,其中大部分资金流向AI领域。
以上内容由腾讯混元大模型生成,仅供参考
12月26日, 国内对冲基金幻方公司发布DeepSeek-V3模型,在2048个H800GPU集群上使用需要3.7天, 用了Llama 405b 等十分之一的算力就训练出不相上下的模型效果.假设H800 GPU的租赁价格为每GPU小时2美元,DeepSeek-V3总训练成本仅为557.6万美元, 这可是将成本降到了百分之一, 太了不起了!
CNBC的新闻也惊呼对比于Open o1/o3,亚马逊Anthropic Claude,谷歌的Gemini, Meta的Llama 3 405B 动辄数亿美金的训练成本, DeepSeek-V3 简直一定打破了美国的高端芯片禁运带来的对我国人工智能领域桎梏. 难怪CNBC惊呼DeepSeek-V3影响美国AI统治地位.
DeepSeek-V3 多项评测达到并超过OpenAI GPT-4o
CNBC认为投资者应该考虑前沿模型是否为一项好的投资?
前几日,金融时代文章《相对于竞争对手, 微软购买了两倍英伟达GPU芯片》报道了互联网巨头们在AI领域疯狂竞争. 根据科技咨询公司Omdia的估计, 包括字节跳动在内的互联网巨头, 在算力&数据中心投入最多的前五名总规模就达千亿美元. 据报道摩根士丹利的分析师估算,亚马逊、谷歌、Meta和微软这四大科技巨头在2024年的资本支出将达到约3000亿美元,其中大部分资金流向了AI领域。
由下图可知,2024年虽然微软以300多亿美元的投入领先,但与亚马逊和谷歌的差距并不大. 国内大厂还是字节和腾讯上榜. 微软大约购买了 48.5 万张,字节跳动 23万张, 腾讯 23万张(国内大厂受美国监管限制, 购买的为低性能版H20). 亚马逊虽然只买了英伟达19.6万张GPU,但其有自家Trainium和 Inferentia芯片130万张,算力&数据中心支出260亿美元. 谷歌买了英伟达16.9万张,但同样有自家TPU芯片150万张.
DeepSeek-V3的发布, 却证明了最先进的大模型开发并不局限于科技巨头。而且中国人足够聪明找到不一样的技术路径.
然并不影响英伟达的营收
在GB200和B200发布6个月后,英伟达就宣布将推出全新的GPU GB300和B300:
显存容量:从192GB升级到288GB
架构微创新,在CPU和GPU之间动态分配功率,使得B300浮点运算比B200高50%,GB300和B300的热设计功耗分别达到1.4KW和1.2KW比B200更高。
这完全为了迎合市场上需求, 在OpenAI 发布o3模型,用o3完成100个测试任务的成本高达2,012美元,而测试全部400个公开任务的成本更是高达6,677美元。这种成本对于应用来是没有意义的. 但笔者一直强调, 目前是斗争的市场, 在大厂和投资人看来, 未来必将范式革命, 高端芯片是美国仅有的优势产业之一, 再高的估值都是值得的。
圣诞节前,马斯克旗下AI初创公司xAI官宣融资60亿美元。紧接着其员工就发文称,将要建20万GPU的集群.