英伟达发布新卡,国产大模型怎么看?拱手相让还是逆流直上?

玖轩评科技文化 2025-01-10 14:08:48

1 月 7 日上午,在全球最大的消费电子展上,英伟达总裁黄仁勋发表了演讲。此前就有海外科技博主预测,英伟达即将发布的新版显卡,GPU 性能会大幅提升,果不其然,这次黄仁勋发布了英伟达 RTX 50 系列显卡。按照英伟达的说法,RTX 5090 整体性能是上一代 RTX 4090 的两倍。

然而,在美国对华断供高端芯片的背景下,有人担忧中国人工智能行业因无法获得最高性能 GPU 用于训练,与美国的差距会进一步拉大。一直以来,在人工智能领域,“算力焦虑”是常见的说法。作为主导全球的 GPU 企业,英伟达 H100 GPU 数量曾是衡量大模型公司算力的指标,黄仁勋甚至说过“英伟达是 AI 世界的引擎”,在他看来,英伟达的硬件对发展人工智能大模型起着决定性作用。

但如今,算力和人工智能大模型已不是多数企业最关心的问题,如何将人工智能落地应用才是 2024 年的重点,很多时候并不需要最高性能的 GPU 芯片。相比之下,黄仁勋却没那么淡定,在演讲中渲染英伟达“Blackwell 架构芯片是人类历史上最大的单芯片”“前所未有的规模”的同时,却对其消费级产品采取了性能不变但降价至三分之一的策略,这跟此前认为英伟达产品将涨价的预期形成反差,显然,英伟达在主导地位受到挑战时,也开始想办法多找几条路走。

实际上,全球几家全力投入人工智能大模型研发的头部企业,正掀起“去英伟达”的趋势。像 Open AI、苹果公司等都开始自研芯片和生态系统来支撑自身的大模型训练。这股趋势更重要的是打破了英伟达营销的人工智能“算力为王”的认知。

除了自研 AI 芯片,Open AI 等全球头部的人工智能公司,都在更多地聚焦大模型本身的设计优化。比如 Mistral AI 公司将混合专家模型引入大模型训练,用多个特定领域的“小专家”配合几个“通用专家”来处理问题;以 DPO、LoRA 为代表的高效微调方法,大幅降低了模型对齐的复杂度。

在这样的趋势下,国产大模型也找到了自己的发展方向。2024 年,国产大模型发展迅猛,不乏通过底层优化,用 2048 块 GPU 就接近头部公司数万块 GPU 训练才有的大模型性能的案例。在全球最大的大模型和数据集社区 Hugging Face 推出的开源大模型排行榜单上,从去年 6 月开始,中国国产开源大模型曾多次占据领先位置。

国产大模型能有这样的成绩,主要是进行了三个方面的创新:底层大模型数据结构的创新,训练过程的创新,以及数据准备的创新。比如 Deepseek V3 通过采用混合精度方法,有效平衡训练精度和效率,结合混合专家模型架构,大模型训练成本大幅降低,性能却跟 GPT-4o 以及 Claude-3.5-Sonnet 相差无几。目前,国内类似的大模型成本、训练时长都已大幅下降。

这种新的模型训练方法,不仅降低了大模型行业的门槛,还推动了全球大模型的降价潮,对人工智能技术的应用和转化意义重大。

在当前全球人工智能大模型的竞争中,算力虽然重要,但不是决定性因素。只有跟软件、应用场景结合起来,才能真正成为推动行业转型、提高经济效率的引擎。

然而,目前部分人工智能项目存在“假智能”问题,靠大量数据叠加出答案,缺乏创造力和想象力,这和“唯算力论”有关。一些前沿大模型探索了“思维链”,但实现“通用人工智能”仍有较大障碍。

0 阅读:10

玖轩评科技文化

简介:感谢大家的关注