DeepSeek这波崩得有点猝不及防。 从昨晚九点半到今天上午十点多,网页端和APP全瘫痪,登录失败、对话中断、写了一半的内容说没就没。正赶上学子赶论文、程序员交项目,多少人对着屏幕上的“服务异常”抓狂,评论区里全是吐槽的。 官方复盘的几个原因,说透了现在AI工具的通病。流量挤爆是一方面,毕业季加项目高峰,大家都往里面冲,系统直接被按在地上摩擦。更关键的是技术架构和硬件瓶颈——用的MoE架构对调度要求高,某个节点出问题就可能全局卡死;国产芯片适配效率才80%,等于有五分之一的算力白白浪费,高端GPU本来就缺,这一来更捉襟见肘。 有人猜是遭了DDoS攻击,峰值3.2Tbps,这强度确实顶不住。但更让人膈应的是“选择性服务”——开发者API稳如老狗,普通用户的Web端直接躺平,明摆着先保能赚钱的,免费用户只能排队等。可话说回来,没有普通用户攒的口碑,付费转化又从哪儿来? 有意思的是,这边DeepSeek还在抢修,那边深圳就放出大招——全国首个万卡级全栈自主可控智算集群亮了,1.4万P智能算力全用国产芯片,去年先点了3000P,这次又加了1.1万P。这等于给AI公司送“粮草”来了,要是国产芯片适配能拉满到100%,算力成本再降点,说不定以后就少些“崩崩乐”了。 说到底,这次宕机暴露的不只是某一个平台的问题。AI工具火得太快,算力、架构、运维都没跟上趟。就像开了家网红店,客人突然挤满了,后厨炉子不够用,服务员手忙脚乱,最后只能关店歇业。 给用AI工具的提个醒:重要内容别光存在云端,本地存一份,多备几个工具。谁知道下一个崩的会不会是常用的那个? 不过看到深圳那个算力集群,突然觉得有点盼头。国产芯片以前总被说“差点意思”,现在能撑起这么大的智算集群,也算站出来了。DeepSeek这次崩得难看,但把问题砸到明面上,说不定能逼着整个行业快点补短板。 下午试了下,DeepSeek能正常用了,之前的对话记录还在,算是不幸中的万幸。你们被这场“宕机风波”影响到了吗?
