个人理解:目前普遍存在的应该是三种常态化算力(不考虑超算算力)第一种是训练算力,

洲济捣 2025-01-28 09:52:39

个人理解:

目前普遍存在的应该是三种常态化算力(不考虑超算算力)

第一种是训练算力,就是训练大模型需要的算力,也就是DS大模型训练大幅减少的算力类型。

用游戏开发周期来举例。这个其实就相当于一个游戏的开发过程需要的资源。

第二种是推理算力,这种就是豆包,通义千问等大模型,我们在使用时,大模型响应我们的任务需要的算力。我们问一些简单的问题,需求算力资源就少,我们生成一些复杂的视频,需求算力资源就多,等待时间就长。

用游戏来举例就是游戏上线运营,在线人数越多,所需求的服务器资源就越大。

这两种算力其实都用的是大模型开发公司的算力资源,又称为云端算力

另外还有一种叫端侧算力。。这种就很简单了,我们使用的手机,平板,电脑,智能手表,Ai眼镜,机器人,无线蓝牙音响,Ai玩具,智能家居(冰箱,彩电等)等等都属于端侧硬件,而这些硬件所具备的性能就可以称之为端侧算力。

用游戏举例,你手机性能越好,玩游戏流畅度就越高,反之就可能面临卡顿,卡死等。

其实那些手机智能助手什么小艺,Siri,小爱同学其实如果把它们当成初级的Ai助手也是可以。它们就相当于在端侧本地内置安装的一个Ai大模型,调用时,用的就是端侧算力。

DS大模型事件带来的影响,从理性角度思考,训练算力由于算法优化,带来的消耗大大降低,这部分算力确实是利空,因为天花板大幅降低了。

但是这样又会推动更多大模型商业化落地,从而使得真正进入百模甚至千模大战阶段,这里会对推理算力催生天量的增量需求,就比如豆包大模型,从日活量900万提升至日活量上亿,就是10倍以上的增量。个人感觉未来一些优秀的大模型一定会实现这种量级的增长,而且上限也不止于此。所以未来对于推理算力的爆发需求至少是10倍以上的增量。这个倒是值得重视的。。

对于端侧算力,个人感觉一方面是存量的产品迭代,比如Ai手机,平板,Pc电脑等进行性能上的升级以适配Ai大模型的需求(PS,其实当下手机,Pc等产品性能对普通人而言是过剩的,但尝新的本能驱动,也会带来消费电子更新换代潮)另外就是增量的Ai眼镜,机器人,Ai玩具这些或许才是端侧算力真正的增量所在。这里的需求也是无限大的,取决于你口袋里的钱

训练算力需求巨大其实是Ai发展路上的最大拦路石。训练成本只有降低到更多企业可以进入参与,才会带领Ai行业进入下一个发展周期:群模乱舞的商业化落地阶段。

当Ai产生巨大的商业价值后,又会促使更多人入局,从而反哺训练算力的需求。

整个流程:DS大模型变革——>训练算力需求大幅减少——>百模大战商业化落地——>推理算力大幅增长&端侧算力大幅增长——>趋使更多人进入Ai行业——>训练算力需求回暖。

0 阅读:17
洲济捣

洲济捣

感谢大家的关注