本次调研走访北美相关科技公司以及相关产业专家。聊了部分公司IR(英伟达/supermicro/intel/tesla/equninix),在技术端以及产品应用端,聊了相关技术与产品专家(openai/adobe/google/meta/微软/amazon/nVidia/anthropic)。
1、当前大模型的能力是否依然在进步?模型的能力上限在哪里?
这个问题某种意义上决定整个AI产业的上限,模型能力的最终极限决定了算力的需求以及应用的想象空间。
从交流的专家来看,普遍对大模型的2-3年维度的持续迭代进步保持谨慎乐观的态度。但这种乐观某种意义上,与去年gpt3.5横空出世那种星辰大海不同,这个乐观更多是基于研发人员在模型端的具体进步而得出的结论,
- 比如说大语言模型在用户感知端的进步已经比较缓慢(也有专家表示这是为什么gpt5没有推出而是推出gpt4o的原因),进步更多的可能是用户感知不明显的数学能力等方面
- 通过相对较小的大模型的预研究仍然能够看到进步,也意味着更大规模的算力仍然能够带来模型的进步。
因此,从一年维度来看,模型进步对于算力需求的牵引应该是非常强的,一方面是基于本身研发端能够看到切实有价值的进步,同时这个调研可以非常明显感受到传统大厂在AI大模型落后之后的压力,比如google为此进行了比较多的组织架构调整,同时也是在薪资上给出了非常高的待遇(应届大牛工资+股票 100万刀,package唯一能匹配上openai的传统大厂)
对于大模型能否通向AGI,似乎并没有人主动提及。Google专家也表示,尽管大模型能够通过图灵测试(最公认的判定AGI的标准),其实现在大家似乎也很难认为当下的大模型就是AGI了,甚至某种意义上大模型现在是一种统计结果。或许,大模型再次出现类似于gpt3.5的能力跃升,更多的机会在于多模态(google专家演示了一个手机端gemini实时交互的视频),或者是当传统大模型的transformer架构有非常大的突破。
2、scaling law是否持续有效,能保证大厂高强度的capex得以持续
model的质量主要有以下三个环节构成
- 模型架构:目前来看transformer架构是公认主流,短期很难看到被颠覆的可能。
- 模型规模:规模越大,性能越好。
- 数据质量(数据的多样性,质量,数量):训练数据的枯竭是被多次提到的问题。
从以上三个环节来看,数据的枯竭可能是限制scaling law的一个比较重要的问题,这个问题在大语言模型的训练中尤其明显。数据的scaling law可能依然有效,但是数据的规模可能不能支撑无限制扩张下去。相比之下,多模态的训练数据还没有遇到这个问题。
算力的堆叠目前来看是分歧最小的方向,一方面大模型仍在进步,另一方面硅谷巨头仍然处在格局未定的战备阶段。当前算力在美国的制约是电力,为了应对电力短缺,谷歌已经开始尝试多数据中心协同计算。
3、竞争格局:
目前来看,openai、google、meta是综合来看比较领先的,anthropic作为amazon和google共同投资的独角兽也是有背书的。马斯克的Xai在起步阶段,但是专家表示马斯克在高端人才的号召力很大,xai也有非常强的人才储备。
北美几个龙头与openai的差距某种意义上应该是在缩小的,一方面是传统巨头在人才储备上是完全够用的,尤其是google,在硅谷的技术人才储备上是公认的最领先的。其次,硅谷之间的技术交流相对便利,并且没有禁业协议。Meta专家表示除非openai在架构上再次出现跃升,否则即使他没有开源,对于业内专家而言他的技术实现也不是秘密,很快能追上。对于openai如何维持这个领先,openai的专家表示更多还是依靠本身的人才密度(现在的招聘门槛很高),以及chatgpt积累的数据资源。
国内模型研发的差距,从最前沿的科学角度差的依然比较大,硅谷的环境非常与世隔绝,科技大厂对于研发的投入更纯粹(meta,amazon的专家表示公司烧百亿美金,也并没有要求一定药做出啥产品来),因此在前沿架构的探索上,和硅谷差距非常大。但是考虑到当前硅谷整体模型的迭代也出现一定程度放缓,国内模型应该能够保持不被拉开。
4、应用创新:北美在创新一样迷茫,瓶颈何在?
以微软和adobe为例,两个公司是产品广度和深度最强的,并且过去一年在应用端的产品发布也比较频繁,但是从最终用户付费订阅的比例来看,这个结果是低于预期的。以微软为例,他的M365 copilot热门应用主要集中在企业搜索,m365chat,summarization,reference(emails)等环节,而最好的产品teams ai的日活大概在几百万左右。对于去年PR视频中给予厚望的PPT和EXCEL而言,专家坦诚是不够好的,主要问题是,
1) PPT与EXCEL的产品是一个从0-1创作的过程,但是对当前大模型的能力而言,从0-1这个生成过程是非常难匹配用户预期的。
2) 这类产品需要用户从零开始去构建promt(提示词),对于用户的使用门槛也非常高。
3) PPT的创作是个长流程的过程,类似于化工,每一步的生成误差,积累到最后也是非常大的,会带来整个产品的偏差比较大
而回到大模型能力的制约上,比较认同meta技术专家的一个观点,就是大模型本身现在展现出来的功能,很多时候对用户而言仅仅是nice to have,但是没有这个功能其实对大家并不是一个不能接受的退步。
总体上,对于应用的拓展,类似移动互联网时代的原生AI应用的,相比于创造需求,解决当下需求,提高效率应该是当前AI能够看到机会,因此从B端角度入手,会是当前AI应用的主力方向。此外以AIpc和AIphone这种系统级别的终端创新,打破单个APP的数据割裂,会是C端应用最重要的尝试方向(anthropic专家观点)。
小结:
本次调研主要走访硅谷AI相关公司,总体印象是,AI的大模型和算力的技术进步仍在持续,其中大模型的进步已经度过了去年chatgpt的惊艳阶段,模型能力的演进相对平缓。算力的需求仍然旺盛,相比模型的进展本身,算力由于存在比较明确的供需紧缺,整个环节看起来更加景气。
应用端的创新也面临着一定瓶颈。从应用端,落地的产品并不多。应用目前c端原生产品遇到瓶颈,更多的是B端需求,以及可能需要依赖手机,电脑等终端厂商对产品形态进行调整释放创新空间。
落实到投资维度,主要相关的在算力与应用端。算力板块在一年维度仍能保持比较强的景气可见度,甚至不排除继续超预期的可能。仍是AI方向最值得配置的板块。应用领域,调低国内AI原生应用以及国内大模型公司c端商业化进展的预期,关注有B端布局的公司。更关注AIpc和AIphone的带来的潜在的用户体验的超预期。