DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

DeepSeek V3 发布并同步开源,直接在外网刷屏了。

延续便宜大碗特点的基础之上,DeepSeek V3发布即完全开源,直接用了53页论文把训练细节和盘托出的那种。

怎么说呢,QLoRA一作的一个词评价就是:优雅。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

具体来说,DeepSeek V3是一个参数量为671B的MoE模型,激活37B,在14.8T高质量token上进行了预训练。

在多项测评上,DeepSeek V3达到了开源SOTA,超越Llama 3.1 405B,能和GPT-4o、Claude 3.5 Sonnet等TOP模型正面掰掰手腕——

而其价格比Claude 3.5 Haiku还便宜,仅为Claude 3.5 Sonnet的9%。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

我们整理了外网上对于DeepSeek V3的热议,综合了「量子位」和「新智元」的内容。

01 

只用了550万美元,

大概是7b Llama2 的成本

DeepSeek V3整个训练过程仅用了不到280万个GPU小时,相比之下,Llama 3 405B的训练时长是3080万GPU小时(p.s. GPU型号也不同)。

直观地从钱上来对比就是,训练671B的DeepSeek V3的成本是557.6万美元(约合4070万人民币),而只是训练一个7B的Llama 2,就要花费76万美元(约合555万人民币)。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

OpenAI创始成员Karpathy对此赞道:

作为参考,要达到这种级别的能力,通常需要约1.6万个GPU的计算集群。不仅如此,当前业界正在部署的集群规模甚至已经达到了10万个GPU。

比如,Llama 3 405B消耗了3080万GPU小时,而看起来更强大的DeepSeek-V3却只用了280万GPU小时(计算量减少了约11倍)。到目前为止,模型在实际应用中的表现相当出色——不仅在LLM竞技场名列前茅,而且从Karpathy本人的快速测试来看,结果也都很不错。这说明,即便是在资源受限情况下,模型也能展现出令人印象深刻的研究和工程能力。

这是否意味着前沿LLM不需要大型GPU集群?不是的,但这表明,你必须确保不浪费已有的资源,这个案例很好地证明了在数据和算法方面还有很大的优化空间」。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

Meta科学家田渊栋也惊叹DeepSeek V3的训练看上去是“黑科技”:

这是非常伟大的工作。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

02 

贾扬清力赞,

各路评测碾压

贾扬清针对推理提出了几点自己的思考:

  • 首先最重要的是,我们正式进入了分布式推理时代。一台单GPU机器(80×8=640G)的显存已经无法容纳所有参数。虽然更新大显存机器确实可以装下模型,但不论如何,都需要分布式推理来保证性能和未来扩展。
  • 即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。
  • 论文中特别提到引入「redundantexpert」概念,正是为了解决这个问题。这已经不再是「一个模型多个副本」的问题、而是「每个模型子模块都有多个副本」,然后独立扩缩容。
  • 输入token很容易实现盈利。根据个人专业判断,需要大量优化才能使输出token盈利或实现收支平衡。但如果我们相信「软件摩尔定律」,这就不

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

从模型能力来看,其评测跑分不仅超越了Qwen2.5-72B和Llama-3.1-405B等开源模型,甚至还和一些顶尖闭源模型(如GPT-4o以及Claude-3.5-Sonnet)不分伯仲。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

从实际响应来看,其生成速度提升了3倍,每秒生成60个tokens。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

在又快又好的同时,DeepSeek V3的API价格也被打下来了。

每百万输入tokens 0.5元(缓存命中)/ 2元(缓存未命中),每百万输出tokens 8元

单论价格,正如一开始提到的,它几乎是Claude 3.5 Sonnet的1/53(后者每百万输入3美元、输出15美元)。

而如果要平衡性能和成本,它成了DeepSeek官方绘图中唯一闯进“最佳性价比”三角区的模型。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

在搜索产品Kagi的评测中,V3 也是站在了开源之首,紧追Sonnet-3.5 与GPT-4o。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

03 

网友评测整活

DeepSeek-V3现在已经在官方平台上直接可以测试,而且代码全部开源可以直接下载。
国外AI发烧友们纷纷开启了测试,有人直接将4/8个M4 Mac mini堆叠在一起来运行DeepSeek-V3了…
DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了
一位开发者惊讶地表示,DeepSeek-V3无需我解释就能如此准确地理解一切,这种感觉真让人毛骨悚然。就好像机器里真的住着一个幽灵似的。
DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了
另有开发者通过DeepSeek-V3创建了一个用AI公司logo制作的小行星游戏,分分钟就完成了。
DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了
DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了
还有的人对用如此低成本,训练出一个强大得模型,难以置信。
Stability AI前CEO表示,以每秒60个token(相当于人类阅读速度5倍)的速度全天候运行DeepSeek v3,每天仅需要2美元。
那么,你是要选择一杯拿铁咖啡,还是一个AI助手呢?
DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

04 

预训练细节

我们继续掰开论文细节。先来看最受关注的预训练部分:

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

官方介绍,通过在算法、框架和硬件方面的协同优化,DeepSeek V3的训练成本变得非常经济。

预训练阶段,在每万亿token上训练DeepSeek V3仅需要18万GPU小时,就是说,在官方2048卡集群上,3.7天就能完成这一训练过程。

研发团队用了不到2个月的时间就完成了DeepSeek V3的预训练,耗费了266.4万GPU小时,再加上上下文长度扩展的11.9万GPU小时,和后训练的5000 GPU小时,总训练成本为278.8万GPU小时。

假设GPU租赁价格为每GPU小时2美元,那成本换算过来就是557.6万美元。

所以,具体是什么样的协同优化?

官方标注了几个重点:

首先,架构方面,DeepSeek V3采用了创新的负载均衡策略和训练目标

研发团队在DeepSeek-V2架构的基础上,提出了一种无辅助损失的负载均衡策略,能最大限度减少负载均衡而导致的性能下降。

具体而言,该策略为MoE中的每个专家引入了一个偏置项(bias term),并将其添加到相应的亲和度分数中,以确定top-K路由。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

研发团队还证明,多Token预测目标(Multi-Token Prediction,MTP)有利于提高模型性能,可以用于推理加速的推测解码。

预训练方面,DeepSeek V3采用FP8训练。研发团队设计了一个FP8混合精度训练框架,首次验证了FP8训练在极大规模模型上的可行性和有效性。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

论文中还提到了跨节点MoE训练中的通信瓶颈问题。解决策略包括,设计DualPipe高效流水线并行算法:在单个前向和后向块对内,重叠计算和通信。

这种重叠能确保随着模型的进一步扩大,只要保持恒定的计算和通信比率,就仍然可以跨节点使用细粒度专家,实现接近于0的all-to-all通信开销。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

另外,研发团队还开发了高效的跨节点all-to-all通信内核等。

后训练方面,DeepSeek V3引入了一种创新方法,将推理能力从长思维链模型(DeepSeek R1)中,蒸馏到标准模型上。这在显著提高推理性能的同时,保持了DeepSeek V3的输出风格和长度控制。

其他值得关注的细节还包括,DeepSeek V3的MoE由256个路由专家和1个共享专家组成。在256个路由专家中,每个token会激活8个专家,并确保每个token最多被发送到4个节点。

DeepSeek V3还引入了冗余专家(redundant experts)的部署策略,即复制高负载专家并冗余部署。这主要是为了在推理阶段,实现MoE不同专家之间的负载均衡。

最后,来看部分实验结果。

大海捞针实验:

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

可以看到,在各项基准测试中,DeepSeek V3在开源模型中达到SOTA。

DeepSeek-V3 外网刷屏爆火,训练成本只有 600 万,把 AI 大佬都炸出来了

体验地址:chat.deepseek.com

技术报告地址:
https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf
抱抱脸开源地址:
https://huggingface.co/deepseek-ai/DeepSeek-V3

© 版权声明

相关文章

暂无评论

none
暂无评论...