出品 | 搜狐科技
作者 | 梁昌均
国产“大模型之光”DeepSeek正在AI圈引发巨大的冲击波,并在华尔街引发震动。
1月27日美股盘前,英伟达、ASML、台积电、博通等多家芯片股大跌。开盘后,依然延续走低态势,截止发稿,英伟达、台积电、博通等均跌超10%,其中英伟达跌超12%,相当于市值跌去超过4000亿美元。
市场观点认为,英伟达大跌受中国AI公司DeepSeek爆火影响,其推出的最新推理模型,削弱了市场对英伟达AI芯片未来需求预期。
该公司最近先后发布的大模型DeepSeek-V3、DeepSeek-R1凭借低成本、高性能,以及坚持开源持续出圈,并引发市场对大模型算力竞赛的质疑,AI游戏规则被改变了!
这使得大模型浪潮最大的受益者——英伟达的算力信仰开始倒塌,股价首当其冲受到冲击。
虽然最新推出的深度推理模型DeepSeek-R1已发布过去一周,但这款公司引发的大讨论正在让其进一步受到更多关注。
DeepSeek应用同时登顶苹果中国区和美国区苹果Store免费APP下载排行榜,美区下载榜力压ChatGPT,这是历史上首次中国应用能同时在中美苹果App Store占据第一位。
DeepSeek引发算力怀疑论,英伟达很受伤
“中国的DeepSeek可能代表对美国股市的最大威胁,因为该公司似乎以极低的成本构建了一个突破性的人工智能模型。这让人质疑投入该行业的数千亿美元资本支出的实际效用。”德国世界报知名市场评论员Holger Zschaepitz说到。
此前,大模型被认为是需要依靠预训练Scaling Law而迭代演进,算力则是其中的关键因素。
然而,DeepSeek现在则提供了另一种可能,其借助低廉的训练成本,实现了模型性能的巨大提升,这也是被业内持续称赞的核心因素之一。
去年12月,DeepSeek推出的DeepSeek-V3通过优化模型架构和基础设施等方式,展现了极致性价比。当时,该模型不仅在多个主流评测基准超越阿里、Meta等所有开源模型,并媲美GPT-4o、Claude-3.5等最强大的闭源模型。
更让业内震惊的是,DeepSeek-V3的训练成本只用了557.6万美元,包括预训练、上下文、后训练,其在由2048块H800组成的GPU集群上训练3.7天,预训练耗时不到两个月。
AI大神、OpenAI创始成员Andrej Karpathy(安德烈·卡帕西)用“a joke of a budget”(玩笑般的预算)表达了对成本的惊讶。
这远远低于主流模型的训练成本。公开信息显示,Llama-3-405B在约1.64万块H100 GPU集群上训练,预训练时间54天,成本超5460万美元,是DeepSeek-V3的10倍多。
类似GPT-4o、Claude-3等模型则是在数万块GPU上训练,成本高达1亿美元,是DeepSeek-V3成本的近18倍。
DeepSeek最新发布的深度推理模型DeepSeek-R1,在数学、代码、自然语言推理等任务上,性能则比肩o1正式版。
更关键的是,DeepSeek-R1创新了训练路径,其拒绝采样和监督微调,通过纯强化学习进行训练,摆脱了以往需要依赖大量数据监督微调来提升模型性能的路径,这也是业内首次证明大模型可以通过纯强化学习进行提升。
不过,DeepSeek并未披露DeepSeek-R1的训练成本,但其相较o1依然具备明显价格优势。该模型API服务定价为每百万输入tokens 1元(缓存命中)/4元(缓存未命中),输出为每百万输出tokens 16元,不到o1的4%,意味着其成本仍可能远低于o1。
这也让业界“恍然大悟”:原来不靠大规模的算力,也可以训练出模型性能媲美GPT-4o和o1的模型,由此引发了对大模型算力决定论的质疑。
“DeepSeek R1在OpenAI、Meta、Grok以及谷歌的屁股下点了一把火,就像Open AI在第一次推出ChatGPT时那样震撼。如果去掉人力瓶颈,达到o1级性能真的不需要花太多钱!”有评论称。
加利福尼亚大学伯克利分校教授亚历克斯·迪马基认为,DeepSeek的技术路线揭示了一个残酷事实——达到顶尖性能未必需要天文数字投入,这对硅谷的烧钱竞赛无异于釜底抽薪。
澜舟科技创始人&CEO周明发文表示,DeepSeek从技术突破到APP登顶,不仅成功改写了AI行业发展的轨迹,更有力地宣告了大模型轻量化的重要意义和所谓的Scaling Law的终结。
“这是技术极致主义的胜利,更是中国人才智慧与创造力的胜利。那些对OpenAI亦步亦趋,拿Scaling law忽悠,瞧不起中国人才的所谓大咖可以回去洗洗睡睡了。”
“过去如果想在AI创业中位于前列,那么必须面对巨大的支出。DeepSeek为硅谷从业者打开了眼界——用几千万就能做出这样一个模型。”硅谷风头人Chetan Puttagunta表示。
自ChatGPT诞生以来,算力成为大模型最核心的资源。Scaling Law信仰者认为,卡越多,就能训练出更强大的大模型。
科技巨头由此也在持续进行算力竞赛,从万卡集群到十万卡集群,微软、谷歌、Meta,以及马斯克的xA为此都在抢英伟达的芯片。这也推动英伟达的业绩和股价在过去两年翻倍爆发,成为这波浪潮最大的受益者。
但DeepSeek则证明,不用万卡、不用高额的成本,依靠算法、工程等方面的组合创新和极致效率,同样可以训练出类似GPT-40和o1的模型,实现花小钱、办大事。
显然,这让市场对支撑英伟达的算力信仰产生了动摇。
复制DeepSeek,算力竞赛还能持续吗?
目前来看,DeepSeek对英伟达股价造成的冲击,源于市场对其算力需求预期产生了悲观看法。
实际上,英伟达的业绩增速在最新季度已出现一定波动。2025财年第三财季,英伟达营收增速已下降至94%,而此前连续多个财季数倍增长,其中以芯片为核心的数据中心业务增速也在持续放缓。
这一放缓趋势可能延续。英伟达预计,2025财年第四财季营收为375亿美元,同比增长不到70%,增速继续下降,而DeepSeek则加强了放缓预期。
那么,这是否意味着,大模型未来的技术进步,不再需要大规模的GPU算力支撑?或者,换句话说,DeepSeek的路径能被广泛复制吗?
微软CEO萨蒂亚·纳德拉(Satya Nadella)此前谈到DeepSeek时表示:“DeepSeek的新模型令人印象深刻,他们不仅有效地构建了一个开源模型,能够在推理计算时高效运行,而且在计算效率方面表现出色,我们必须非常非常认真地对待中国的AI进步。”
纽约大学教授盖瑞·马库斯(Gary Marcus)认为,当前阶段的AI霸权之争已经结束,而中国最近的进展,对OpenAI而言无疑是个重大打击。
不过,目前最紧张的可能是Meta。Meta CEO扎克·扎克伯格在最近的一档播客节目中坦言,DeepSeek的技术非常先进,中国正在全力追赶,甚至让人担忧这一开源模型可能会影响美国的科技领先地位,“这是一场差距很小的竞争”。
最新报道显示,Meta生成AI小组和基础设施团队的经理和工程师已开设四个作战室来学习DeepSeek的工作原理。
其中两个动员起来的小组正在试图了解如何降低训练和运行DeepSeek的成本;第三个小组正在试图弄清楚可能使用哪些数据来训练其模型,第四个小组正在考虑基于DeepSeek模型属性重构Meta模型的新技术。
“工程师们正在争分夺秒地分析DeepSeek,试图复制其中的一切可能技术,这绝非夸张。”有Meta研究员表示。
全球最大开源平台HuggingFace也宣布将复刻DeepSeek-R1,完成之后,所有的训练数据、训练脚本等,亦将全部开源。DeepSeek已飙升至该平台下载量最多的模型,DeepSeek-R1已超13万次。
过去业内都在尝试复现OpenAI,但由于闭源,使得复现难度很大。如今DeepSeek走的则是开源路线,并在技术论文中详细地介绍了使用的算法、策略、框架以及尝试的失败经验等,意味着这条路可能会更容易被复现出来。
不过,有观点认为,DeepSeek的出现,使得硅谷几乎陷入自证悖论——即便真的复现成功,Meta等也不可能公布复现结果,从而证伪自己的巨大估值和大额资本支出的必要性。
此前,微软和OpenAI等发文强调AI基础设施的重要性,微软表示将投入800亿美元,并呼吁美国加强投入以确保领先地位,而谷歌、亚马逊、Meta也都有计划增加AI支出的计划。
微软副董事长&总裁Brad Smith(布拉德·史密斯)此前发文表示,中国AI领域的快速发展加剧了美国和中国AI之间的竞争,很可能在接下来的四年中在全球市场展开,这场竞赛很可能由最快的先行者赢得。
此前,美国政府则宣布了5000亿美元的“星际之门”计划,OpenAI、软银、甲骨文、微软、英伟达等巨头等均有参与。
不过,马库斯认为,除非出现重大变数,否则即便投入5000亿美元的基础设施建设,未来数年内中美两国都难以在这场竞争中取得决定性优势。
他预测称,技术进步将更趋于渐进,创新会很快被追上。“GPT-5类模型终将问世,但无论是哪家公司拔得头筹,领先优势都将转瞬即逝。”
同时,马库斯认为,到2027年底,中美两国都不太可能实现AGI。在LLM领域无休止的竞争,只会消耗原本用于更创新方案的宝贵资源。
这是否意味着前沿大模型不再需要大型算力集群?“并不是,但你必须确保不会浪费你所拥有的,且在数据和算法方面还有很多事情要做。”安德烈此前提到。
黄仁勋在CES2025演讲中提到,Scaling Law是AI行业一个强大的经验法则,且将继续。不过,除了预训练Scaling Law,还有后训练Scaling Law和推理Scaling Law,这都将带来巨大的计算需求。
周明认为,随着预训练和推理等关键技术的攻克,模型轻量化导致的成本的大幅度降低,开源带来的普惠,AI 应用的爆发之势已然蓄势待发,智能体作为核心载体,将开启一个全新的智能化时代,企业将可以用很低的成本实现应用大模型技术。
随着AI应用的加速落地,算力需求将从训练转向推理,而DeepSeek则可能会加速这一趋势,即未来推理算力的需求将成为主要驱动力。对于目前聚焦于训练侧的英伟达来说,可能需要作出调整,以应对市场的变化。