【【【前言:测过“非AI PC”后,我们又来折腾核显轻薄本了】】】
前段时间,我们三易生活出于技术层面的好奇心,尝试使用两台不具备NPU的“老电脑”运行了一些AI PC时代的软件,并撰写了《用“非AI PC”运行AI应用后,我们发现了这些真相》。
结果我们发现,由于CPU和GPU上的“AI加速指令集”以及“AI加速单元”实际上诞生的时间,要远早于AI PC这个概念,以至于在刻意使用较老的PC硬件时,它们依然能够在不少“AI PC专用软件”里得到适配,使用CPU或GPU来实现基于本地大模型的问答、写作、知识归纳和绘图等功能。
但也正因如此,当时我们就已经发现,对于手头的老电脑来说,它们之所以能够做到这一点,一方面是因为我们用的酷睿处理器、ARC独显本身,就得到了来自Intel的OpenVINO AI加速体系的适配。换句话说,这甚至可以看作是Intel在“AI时代”对于自家上一代、甚至前两三代硬件平台给予的“温情”。
但从另一方面来说,大家都知道,如今消费者能够实际买到的轻薄(非游戏)本,它们虽然通常都多了个NPU单元,但同时这些产品也往往不再像我们之前使用的那些机型一样,还额外内置了带有AI单元的独立显卡。
那问题就来了,对于当下这些主流级别、价格要远比我们当初那两台老电脑低得多的“轻薄核显本”来说,它们又是否能够让用户也享受到本地大模型所带来的便利呢?
【【【基础测试:GPU和NPU都能跑AI,文本生成指标意外地快】】】
为了探究这个课题,我们三易生活此次找来了一款最近才刚刚发布、基于Intel Arrow Lake-H平台的核显轻薄本——荣耀MagicBook Pro 14,并基于它进行了一系列的本地化AI实操与测试。
首先“验明正身”,此次我们准备的是荣耀Magic Book Pro 14的顶配版本,其搭载的是酷睿Ultra9 285H处理器,并配有32GB的LPDDR5X 8533MHz内存以及1TB的长江存储PC401 SSD。它没有独立显卡,而是依靠集成的ARC 140T核显,同时CPU内集成了基于Moviduis VPU3720(即Intel NPU3)方案的NPU加速器。
按照惯例,同时也是为了与此前测试的那两台老电脑进行软件环境的“统一”,在测试开始前,我们先将操作系统、核显,以及NPU的驱动都更新到了最新版本。
接下来,我们使用Procyon套件对这款核显轻薄本进行了部分端侧AI计算场景的性能测试。可以看到,Arrow Lake-H(下文将简称为ARL-H)的GPU与NPU都支持计算机视觉(也就是摄像头相关)的AI加速运算。考虑到Intel的“NPU3”原本就是基于Moviduis VPU架构实现,所以这也在我们的意料之中。
在Procyon的文本生成测试中,则自动选择了ARC 140T核显作为AI加速器。可以看到在多个测试任务中,ARL-H平台的这颗核显现在居然都能跑出20 Tokens/s的生成效率。简单来说,这个生成速度已经完全可以满足“对答如流”的用户体验了。
此前有看过我们三易生活相关内容的朋友可以记得,这是因为ARL-H里的这颗ARC 140T核显虽然本质上还是源自初代Xe架构,但它重新加入了此前在MTL-H平台上因为面积因素而被取消的GPU XMX单元。就结论而言,这就使得ARC 140T在核心规模方面,实际上无限接近此前的独显版本ARC A370M。甚至对比ARC A370M,它的着色器频率还要更高,再加上128bit、32GB的8533MHz内存,即便是共享显存,带宽和容量也都反超了A370M的4GB、64bit独立显存。
【【【实际运用:本地部署Deepseek很简单,甚至还能更无脑】】】
不过光有Procyon的跑分显然还不足以说明问题,所以我们还从魔搭社区下载了专为Intel平台优化过的Ollama对话模型,并基于它在这台MagicBook Pro 14上尝试进行了Deepseek-R1 7B的本地部署。
实际上,部署过程可以说相当“无脑”。只需将下载的压缩包解压,之后从CMD内将其启动,再使用命令行指定下载Deepseek-R1 7B,等自动化的下载和安装完成之后,就可以开始对话了。
从运行效果来看,Ollama完全可以只靠ARC 140T核显的计算单元,来运行Deepseek-R1 7B这个本地大模型。在运行过程中,它的共享显存甚至也才用到1/3左右。而其回复速度和回复的复杂度,更是完全具备可用性。
当然,众所周知的是,Ollama因为没有UI,所以在使用的便利性上确实不算高,特别是对普通用户还是不够友好。但好在现在也有一些第三方软件已经针对酷睿Ultra平台做了专门的适配。只要软件侦测到处理器符合特定的型号,就会自动“解锁”相应的本地AI处理模式。
以Flowy为例,它本身就自带云端和本地两种大模型工作模式。在我们此前测试的“非AI PC”上,本地大模型虽然可以下载,但无法在对话模式下被选中。而到了酷睿Ultra平台,Flowy就允许用户切换到本地模型工作状态。
从我们实测结果来看,Magic Book Pro 14搭载的酷睿Ultra9 285H处理器搭配32GB高频内存,甚至可以“带动”14B规模的Deepseek本地大模型,在回答精度和使用便利度上都要比Ollama更上一层楼。
除了Flowy,另一个AI对话APP“智谱清言”对于酷睿Ultra平台的适配就做得更有意思。在首次启动后,它会提示可以切换到专为Intel酷睿Ultra平台适配的本地对话模式。此时,不仅原本隐藏的本地模型下载功能会自动“解锁”,甚至就连软件本身的界面都会发生改变,右上角会出现“Intel Core Ultra”的Logo,让人一眼就能看出它是专为目前的处理器做了适配。
【【【结语:AI PC的真正意义,在于让更多人能够用得到】】】
其实很早之前我们三易生活就曾指出,在整个PC行业中,Intel可能才是对于AI PC响应最早,而且实际产品覆盖面最广的品牌。
因为从一方面来说,通过我们此前对那两台“非AI PC”的测试已经证明,即便是几年前的Intel处理器和显卡,也能受益于它们早早就内含的DLBoost、XMX等指令集和计算单元,在最新的API下被用于AI软件的加速处理。
亦心闪绘在酷睿Ultra平台可以使用GPU和NPU实现交互式的图生图
另一方面,针对最新一代的Arrow Lake-H平台,Intel不仅为其配备了高性能的CPU、GPU、NPU,更重要的是他们还在积极地推动第三方AI软件的适配。即便是没有独立显卡的“轻薄本”,只要使用了Arrow Lake-H、LunarLake-MX等Intel最新世代的AI PC硬件,那么都可以在诸如知我AI、Flowy、智谱清言、亦心闪绘等一系列AI软件中,自动得到针对GPU、NPU的AI加速适配。
如此一来,哪怕是完全不懂得何谓“部署”、何谓“调优”的普通消费者,实际上在最新的这些Intel AI PC平台、特别是轻薄型的笔记本电脑上,就都能受益于无门槛的本地大模型。而这不仅仅是对于消费者来说意义重大,更为重要的是,相比那些看似很强大、但需要高度技术力才能玩转的“AI应用”,由Intel和这些AI软件厂商们组成的“朋友圈”,实际上才更能推动AI PC和AI应用在市场中真正的普及,从而为整个AI生态带来可持续发展的动力。