众力资讯网

高通AI250:10倍性能+40%省电,AI推理效率"起飞"

2025年10月27日,高通突然推出两款AI芯片,分别为AI200和AI250。当日其股价随即大幅上涨13%。这不是一次

2025年10月27日,高通突然推出两款AI芯片,分别为AI200和AI250。当日其股价随即大幅上涨13%。这不是一次平常的升级,反倒好似对整个AI行业实施了一回“降维打击”:其他厂商还在不断堆叠GPU,费力比拼计算速度时,高通直接改写了游戏规则——让数据不用频繁搬移就能在内存中直接进行运算

这一手段,业内将其称作“爆破内存墙”,不但能省电,可达40%之多性能方面更是猛增,有10倍之高。而且更为关键的是,它竟然有可能使AI算力从原本的“巨头专属”状态转变为“中小企业也能够消费得起”的公共资源。

01

AI领域最大的资源浪费,并非算力不足,而是数据搬运过程过于繁琐耗时

你以为AI卡顿是因为芯片不够强?错,实际上在传统AI芯片中,90%的能耗以及几乎所有的延迟,都消耗在把数据从内存搬运到计算单元这个过程里。就如同那顶尖的厨师,技艺精湛,却不得不每天多次奔波数公里专门前往菜市场采购食材,即便其烹饪效率极高,这般来回忙碌也终究是白费力气。

高通AI250获得重大进展,仿佛将计算单元径直置入内存模块之中。数据无需来回移动,便可在原地进行运算。这样一来,内存带宽得以提升10倍,功耗明显下降40%。斯坦福专家李飞飞讲:“过去十年我们始终专心培育厨师,如今才发觉食材运输过程乃是制约效率的重要瓶颈。”

02

算力成本骤降87%,小型企业也能驾驭大模型

训练一个类GPT-5级别的模型得耗费10亿美元?高通声称:太昂贵得做出改变了。

AI250借助“近内存计算”、液冷散热以及高密度电源设计,其总拥有成本(TCO较英伟达H100低达65%。而且更令人称奇的是,每花费1美元所获取到的AI性能,竟然是H100的8倍。

这意味着什么,可汗学院推出个性化AI教学模型,成本降至原先的十分之一,医疗人工智能企业PathAI,癌症筛查单次花费从30美元降低到4美元。而且这般转变着实让相关医疗场景有了新的变化态势。

沙特新兴企业Humain:以相同的资金额度,竟可打造出5座超大型AI数据中心“算力民主化”已非空谈——竟让中小企业也能承担起顶尖AI,创新可不就再被资金给绊住了

03

ARM架构悄然进军数据中心,x86的主导地位面临挑战?

以往AI芯片领域九成以上被英伟达和英特尔的x86架构所占据。而高通此次采用的是其在手机市场广泛应用的ARM架构,具备轻量、高效与低功耗的特点。

微软正在测试依托AI250的Azure云服务,谷歌DeepMind公开称“高度留意”,中国服务器巨头浪潮、中科曙光也马上宣告兼容机型。

这恰似十年前ARM在手机市场实现逆袭的那个剧本——那生态一旦开始了迁移,那垄断便不再是坚不可摧的了。

前英特尔工程师发出警示:高通真正的危险之处,不在于性能表现,而在于它或许会终结Wintel联盟在人工智能时代的主导地位。

04

“中国机遇”现身?存储与计算的融合说不定会成为新的领域赛道

AI250取得成功后,“内存”从原本的配角摇身一变成为了主角。而且全球存储芯片领域的巨头——三星、SK海力士、长江存储等,竟一下子站到了舞台的显眼位置。

对中国而言,这既是挑战,更是机遇,以往咱们在GPU上遭遇“卡脖子”困境然而要是未来算力核心转向“存算一体”,且中国在存储、封装、系统集成方面已有积淀,竟然完全有机会换道超车。

高通CEO清晰地讲道:“实实在在的人工智能革命,不在于模型有多么庞大,而是在于算力需得足够‘灵活’。”

妙便是高效;妙便是低消耗;妙就是使更多人能消费得起。

05

2027年,AI芯片三足鼎立,

AI250预计在2027年投入商业使用,那英伟达、AMD能用来反击的时间就仅仅余下两年。而且居然在这有限的两年里,它们得抓紧时间谋划应对之策。

英伟达已紧急开启“Blackwell+”项目AMD加快推进3nm工艺。而且行业普遍达成共识:往后的角逐,不再是“谁运算速率高”,而是“谁更省、更稳、更实惠”。

麻省理工的研究者这般评判:“咱们正由‘粗暴计算’的时期朝着智能计算’的时代迈进。”

高通这一击,击中的并非对手的芯片,反倒触动了整个行业的思维定式。

高通AI250的问世,恰似一声警示:技术的突破,常常不在那喧嚣之处,反倒在被冷落的一隅。

当整个世界都聚焦于GPU算力迅猛增长之时,高通却悄然地化解了“搬运工”这一难题,而且其效率一下子就翻了倍,成本也直接砍去了一半。

这不仅是芯片的胜利,更是系统思维的胜利,对普通人而言,这意味着将来使用的AI教育、医疗和创作工具将变得更快速、更实惠也更广泛地进入日常生活。

真正的科技惠及大众,说不定就从这一颗“能思索的内存”开启。

来源于网络