图一
据论文显示DeepSeek-V3开源基础模型的训练在2048块英伟达H800 GPU集群上完成。
图二图三
DeepSeek声称仅使用约1万个 Nvidia A100 GPU
进行模型训练,但马斯克对此表示质疑,认为其实际使用的GPU数量可能接近5万个NvidiaH100 GPU。
图四
美国人工智能数据基础公司 Scale AI创始人兼首席执行官 Alexandr Wang称,DeepSeek拥有大约五万块英伟达H100芯片,但因美国出口管制措施,他们不能公开谈论
Grok3
Grok 3 基于 xAI 的 Colossus 集群,一期10万张卡只用了122 天建设,又用了92天扩张到20万张,并使用了约20万块GPU来训练Grok 3,并于一月初完成了预训练。
图五是对比
这么一看DeepSeek确实牛逼哄哄!!!