阿里、百度大模型价格混战,小公司们还是买不起算力

玩数据还有点懒 2024-06-15 06:55:11

伴随人工智能技术的加速演进,AI大模型已成为全球科技竞争的新高地。国内各大科技巨头跟随热潮纷纷投身大模型研发,不过短短两年,厂商大模型如雨后春笋,开启了“百模竞争”时代。

随着AI技术的不断进步和研发成本的降低,AI产品的制造成本和运营成本也在逐渐降低。而厂商们从去年的卷参数,卷性能,现在又卷到了价格。

最近,一股降价潮席卷了大模型届。

大模型应用的最大瓶颈

算力部署是一场需要金钱灌注的持久战。

当前全球GPU芯片缺口巨大,英伟达一家无法满足所有AI大模型训练、推理的需求。英伟达以外,其他多元异构GPU也在快速发展中,算力生态呈分散态势。2018年1月到2021年1月期间,参数量每18个月增长达高340倍。对比之下,2016至2021年的GPU内存增长量,每18个月仅为1.7倍。

英伟达、AMD、英特尔等单芯片算力增长,赶不上大模型参数量、训练数据量所需的算力增长。

对于能拿到算力的公司,摆在眼前的就是成本问题。

Meta曾明确提到,LLaMA需使用到2000个A100 GPU,3周1次训练,其单次训练成本为500万美金。百川智能CEO王小川也曾表示,每1亿参数对应的训练成本约为1.5万到3万元,由此计算,一个千亿级参数的模型的单次训练成本约3000万元。模型越大、GPU开销越大。

从传统产业和中小公司的视角来看,他们的需求很明确:高性能低功耗的算力、稳定且响应迅速的模型、保证数据安全。

但这些企业风格相对保守和现实,早期阶段就很重视模型应用在具体业务中ROI表现,前景不明朗时,他们不愿贸然投入。

如果要及时见效,场景应用时,常见的做法是基于通用底座微调后,做私有化部署。然而, “这种方法很多时候对企业来说是个不小的负担。”在2024年SusHi Tech Tokyo的会场上,「Avalanche Computing」CEO陈杰告诉硬氪。

成本和算力难以两全时,算力一体机或许是个突破口。

是噱头,还是大势所趋

从某种程度上而言,这场价格战似乎带着几分噱头的色彩。

虽然厂商大多以技术进步为原因解释降价的动作,但也有行业专家之处大模型成本下降的幅度远没有降价的幅度大,比起成本,降价更多的原因在厂商的商业向策略的变化,目的。另外,细观此次各大模型厂商的调整策略,降价主要针对的仅仅是低并发用户,而高并发的定价依然保持原样,未有丝毫降低。对于B端用户来说,许多核心业务都需要高并发量的支持,因此,API的降价可能并不能为他们带来实质性的经济优惠。

但从更宏观的视角来看。随着算力和算法的飞速发展,大模型处理数据和进行推理的成本不断降低的趋势是不会变的。这一变化使得商品或服务的定价有了下调的可能性。基于这一逻辑,我们可以预见,降价趋势在未来很可能会持续下去。

而且对于小型开发者来说,模型 API 调用价格下降是一种利好,可以帮助AI领域应用落地。阿里云智能集团资深副总裁刘伟光就表示,阿里云这次大幅降低大模型推理价格的目标是希望推动AI应用的爆发,加速商业落地的进程。

大模型降价,是噱头,也是AI领域发展的需要,更是厂商们”百模大战“内卷的大势所趋。

回到十年前移动互联网时代,那时的APP层出不穷,给人们带来了极大的便利和乐趣。如今,随着大模型降价的风潮和AI技术的不断发展,我们有理由相信未来将有更多创新性的AI应用涌现出来。

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:0

玩数据还有点懒

简介:感谢大家的关注