【高通推出AI200和AI250两款AI加速器】高通宣布,推出面向数据中心的下一代AI推理优化解决方案:基于AI200和AI250两款芯片的AI加速卡和机架。高通表示,新产品以领先的NPU技术为基础,提供了机架级性能和大容量内存,并带来了更低的整体拥有成本(TCO)和灵活的部署模式,标志着在实现跨行业可扩展、高效和灵活的生成式AI方面又向前迈出了一大步。 AI200将于2026年上市,旨在为大型语言及多模态模型(LLM、LMM)推理还有其他AI工作负载提供较低的总拥有成本与优化性能,每张卡带有768GB的LPDDR内存。 AI250将于2027年上市,首次采用了“近内存计算”架构,宣称可以带来“10倍有效内存带宽”及更低的功耗,支持分解式推理,进一步优化算力利用率,实现了AI推理工作负载的效率和性能的代际飞跃。 基于AI200和AI250两款芯片的机架解决方案均采用了水冷散热设计,以提高热效率,单机柜功耗160kW。
