图一据论文显示DeepSeek-V3开源基础模型的训练在2048块英伟达H800

特别小魔豆 2025-02-19 01:09:20

图一

据论文显示DeepSeek-V3开源基础模型的训练在2048块英伟达H800 GPU集群上完成。

图二图三

DeepSeek声称仅使用约1万个 Nvidia A100 GPU

进行模型训练,但马斯克对此表示质疑,认为其实际使用的GPU数量可能接近5万个NvidiaH100 GPU。

图四

美国人工智能数据基础公司 Scale AI创始人兼首席执行官 Alexandr Wang称,DeepSeek拥有大约五万块英伟达H100芯片,但因美国出口管制措施,他们不能公开谈论

Grok3

Grok 3 基于 xAI 的 Colossus 集群,一期10万张卡只用了122 天建设,又用了92天扩张到20万张,并使用了约20万块GPU来训练Grok 3,并于一月初完成了预训练。

图五是对比

这么一看DeepSeek确实牛逼哄哄!!!

0 阅读:124

猜你喜欢

特别小魔豆

特别小魔豆

感谢大家的关注