随着包括OS 18.1正式版在内的一系列操作系统迎来更新,万众期待的Apple Intelligence在部分区域也正式与消费者见面,苹果也终于从AI赛道的旁观者变成了参与者。为了展示押注AI的决心,苹果方面还做了一个“违背祖宗的决定”,在PC产品线放弃了祖传8G内存。
不仅仅是刚刚发布的新款iMac、Mac mini,以及MacBook Pro全系从16GB内存起步,甚至此前推出、搭载M2和M3芯片的MacBook Air也都免费升级为标配16GB内存。要知道在此之前,MacBook Air选购16GB内存还需再加200美元,可苹果现在居然是把“黄金内存”免费送给了用户。
当然,苹果做出这一决定显然是有的放矢的,毕竟如今8GB内存已经难以满足AI时代的需求了。尽管此前在去年秋季,苹果全球产品营销副总裁Bob Borchers在一次访谈中谈及“8GB内存”这个问题时曾表示,“M3 MacBook Pro的8GB内存可能会和其它系统上的16GB内存是比较近似的。”
8G RAM+MacOS>16G RAM+Windows,虽然大家都知道这是个玩笑,但苹果的高层敢于说出这样一番话并不没有底气。事实上,苹果倚仗的就是自家的SWAP(内存交换)技术,也就是Android厂商口中的内存融合技术,将硬盘上的存储空间拿去当低速内存用,可以让系统同时运行很多程序或是对内存有更大需求的应用。
再加上苹果Apple Silicon M系列芯片的统一内存架构(unified memory),实现了CPU、GPU、NPU均可访问同一内存设计,将传统意义上的内存、显存融入到同一个高带宽、低延迟的内存池中。将内存直接作为显存使用,这就是苹果统一内存架构的优势。
如果苹果不做Apple Intelligence,那么8GB内存确实够用,奈何一旦切入AI PC赛道,Mac的8GB内存就不太够了。众所周知,当下的AI技术栈是建立在GPGPU(通用图形处理器)的基础上,即便Mac能用内存当显存用,8GB也过于捉襟见肘。
而在端侧部署AI产品,无论是Stable Diffusion等AI应用、还是各类大模型,都要有足够大的内存将整个模型保存在其中,而无需交换到闪存,同时CPU/GPU和内存之间的带宽也是影响端侧大模型表现的参数。苹果的统一内存恰恰因为要顾及通用性、且遵守各类接口规范,所以不能激进地升级I/O,导致它就只有较小的高速缓存和较低的内存带宽。
再加上统一内存架构即便再有魔力,苹果也不可能做到让所有的内存都去作为显存使用,毕竟维持系统的基本性能开销也需要一定的内存。再加上需要给大模型留下进行本地量化、数据加载的内存,所以即便是3B、7B这种为智能手机设计的小尺寸模型,8GB的Mac在本地也很难运行。
一个无法在本地运行端侧AI的AI PC想想都让人尴尬,要知道根据英特尔方面此前在2024中国闪存市场峰会的论述,未来入门级AI PC一定是标配32G内存,当前的16G内存会被淘汰。所以即使是苹果的内存相关技术再厉害,8GB也很难让用户体验到Apple Intelligence,因此增加内存才能保障用户体验。
在刚刚发布的新款MacBook Pro演示文档里,苹果方面除了展示Apple Intelligence,还通过允许用户在本地离线运行大模型的LM Studio,展示了搭载M4系列芯片MacBook Pro在本地运行mistral-7b、llama-3.1-70b、qwen2.5-72b等大模型的能力。可如果要是没有16GB起步的内存,这样演示完全就是空中楼阁。
如果苹果没有选择发力AI、不认为AI PC是未来,那么继续执行将内存卖成金价的策略显然符合商业利益最大化的需求。可是在已经声称所有搭载M系列芯片Mac都能使用Apple Intelligence的情况下,继续配备8GB内存自然也就不合时宜了。