万万没想到!限制苹果AI的不是芯片算力,反倒是内存!

爱活网 2024-06-25 11:18:43

前不久WWDC 2024上苹果终于是把自己的AI给搬出来了,在那之后风头一时无两,股价也随之涨了一波。

但是,苹果也宣布能使用Apple Intelligence的设备必须是iPhone 15 Pro系列或者搭载M系列的平板、电脑,也就是说最低门槛也得是个三千多的Mac mini。

苹果这波操作也让数以亿计拥有老设备的用户觉得自己是个小丑,认为苹果把他们给抛弃了。

WHY?

当然这里面不乏苹果想要让老用户更新设备,从而刺激销量;另一部分是硬件受限所导致。

自从2017年开始,苹果就开始给芯片加入NPU,说白了就是让芯片长脑子,但Apple Intelligence 所需的计算能力不仅需要更强的NPU还要更大的RAM(运存)。

我们把A16和A17 Pro芯片的详细参数比较一番可以发现,前者的算力有17 TOPS,后者却翻了一倍达到35 TOPS。本以为这就是答案了,但我们把目光转向M1芯片才发现事情远没有这么简单。

根据相关信息来看,M1芯片的算力仅有11TOPS,甚至要低于A16芯片,但它之所以能使用AI主要“归功于”8GB运存。

通常来说,运行AI大模型需要使用大量的数据和计算来生成内容,因此需要足够的内存来支持这些操作。安卓手机厂商现在使用的普遍都是70亿参数的大模型,而且它们为了保证日常使用不受限,需要运行设备拥有12GB以上的运存。

按照我查到的资料显示,苹果AI运行着一个30亿参数的大模型,其能力要比很多安卓厂商的70亿大模型要强。但运行AI时,系统会占用1-2G的内存空间,假如你的设备只有6G运存,这就让手机出现卡顿。

好嘛,本以为是芯片能力问题,结果问题居然是出在运存上。

但是苹果人家也是有话要说的。

据苹果公司人工智能主管John Giannandrea称,Apple Intelligence的推理计算量非常大。因此,这非常依赖于设备的带宽、NPU规模,以及设备本身的性能,理论上,你可以在非常老的设备上运行这些模型,但运行速度过慢以至于完全可以说毫无用处。

翻译人话就是:能用,但只能用一点点,这边还是建议加钱换新设备。

其实苹果完全可以让不同运存的手机使用“残血版Apple Intelligence ”,或者干脆设置一个使用门槛。

但你要知道它可是苹果啊,孤傲的且不可一世的苹果啊,既然要做就做最完整、最好的。8GB 内存,就是目前体验苹果 AI 的最低门槛。

但话又说回来了,既然苹果早就知道AI吃运存,早就知道自己的“野心”了,怎么就不能上大内存呢?

这时候苹果又有话要说了:我们的8G运存和其他设备的16G运存是比较近似的。

但真当用户抱着这个心态选购一款8G运存的Mac时才发现,原来8GB内存真的只是个笑话,自己又成了小丑。

近日也有消息称,苹果自家编程软件Xcode 16的预测代码功能需要16GB内存起步,但Xcode 16 却支持在低于 16GB 内存的 Mac 电脑上运行,只是不支持预测代码完成功能而已。此举也让苹果高管的话成了笑话,简直是啪啪打脸。

另外,国外有消息称,在新iPad Pro当中苹果为256GB和512GB的版本配备了两颗运存芯片,单颗规格为6GB,也就是说苹果原本的内存规格是12GB,但通过某种技术手段屏蔽了 4GB 的内存,最终只有8GB内存,而1TB的版本为两颗8GB内存组成的16GB内存。

这一下就让不少网友看不懂苹果的骚操作了,只能说库克刀法绝了。

如今来看,当年M1芯片使用8G运存可以理解,但时间都来到2024年了,苹果似乎真得考虑在下代 Mac 电脑中将最低内存标准提升至 16GB。

但有的小伙伴要问了,如果说就是单纯的为了AI功能而去换15Pro系列甚至是未来的苹果设备值不值?

答案肯定是值得的,AI是未来的大势所趋,对于那些渴望智能化的用户来说,AI确实能提升你的使用体验。

但话又说回来,现如今的苹果AI更像是为开发者和股东们画的饼,至于为了这块饼还得买个“刀叉”个人认为有点不值当,况且iPhone 16 是否会支持完整的苹果 AI 功能还两说呢,反正我觉得库克没那么好心。

0 阅读:82

爱活网

简介:生活结构科技,科技进化生活!