在一项新的调查中,76% 的科学家表示,扩展大型语言模型“不太可能”或“非常不可能”实现 AGI。

仅在 2024 年,生成式 AI 行业就在全球范围内筹集了 560 亿美元的风险投资,但科学家们认为这项技术不会带来 AGI。 (图片来源:Yuichiro Chino)
根据最近对行业专家的一项调查,当前的人工智能 (AI) 方法不太可能创建与人类智能相匹配的模型。
在接受调查的 475 名 AI 研究人员中,76% 的人表示,大型语言模型 (LLM) 的规模化“不太可能”或“非常不可能”实现通用人工智能 (AGI),即机器学习系统可以像人类一样有效或更好地学习的假设里程碑。
这是对科技行业预测的值得注意的驳斥,自 2022 年生成式 AI 热潮以来,人们一直认为当前最先进的 AI 模型只需要更多的数据、硬件、能源和资金,就可以使人类智能黯然失色。
现在,随着最近的模型发布似乎 停滞不前,人工智能促进协会 (Association for the Advancement of Artificial Intelligence) 调查的大多数研究人员认为,科技公司已经走到了死胡同——金钱无法让他们走出死胡同。
递减近年来 LLM 的惊人改进部分归功于其底层的 transformer 架构。这是一种深度学习架构,由 Google 科学家于 2017 年首次创建,它通过从人类输入中吸收训练数据来发展和学习。
这使得模型能够在收到提示时将其转发,从而从其神经网络(为模仿人脑学习方式而排列的机器学习算法的集合)中生成概率模式,并且它们的答案会随着数据的增加而提高准确性。
但是,这些模式的持续扩展需要大量的资金和精力。仅在 2024 年,生成式 AI 行业就在全球范围内筹集了 560 亿美元的风险投资,其中大部分用于建造巨大的数据中心综合体,自 2018 年以来,其碳排放量增加了两倍。
预测还显示,对进一步增长至关重要的有限人力数据很可能会在本十年末耗尽。一旦发生这种情况,替代方案将是开始从用户那里收集私人数据,或者将 AI 生成的“合成”数据反馈给模型,这可能会使他们面临因吞下自己的输入后产生的错误而崩溃的风险。
但调查专家表示,当前模型的局限性可能不仅仅是因为它们耗费资源,还因为它们架构的根本局限性。

一名儿童在2023年杭州未来人生节上与商汤科技的“Meta Radish”人工智能棋类机器人下围棋。(图片来源:CFOTO/Future Publishing)
AI 开发的未来一些受访者表示,所有这些瓶颈都给致力于提高 AI 性能的公司带来了重大挑战,导致评估基准的分数停滞不前,OpenAI 传闻中的 GPT-5 模型从未出现。
中国公司 DeepSeek 今年也削弱了总是可以通过扩展进行改进的假设,该公司的性能与硅谷昂贵的模型相当,而成本和功耗只是其中的一小部分。由于这些原因,79% 的调查受访者表示,对 AI 能力的看法与现实不符。
“有很多专家认为这是一个泡沫,特别是当免费赠送相当高性能的模型时。”
然而,这并不意味着 AI 的进步已经死去。推理模型(将更多时间和计算能力投入到查询中的专用模型)已被证明比其传统的前辈产生更准确的响应。
受访者表示,将这些模型与其他机器学习系统配对,尤其是在它们被提炼成专门的规模之后,是一条令人兴奋的前进道路。DeepSeek 的成功表明,在 AI 系统的设计方式方面,工程创新还有很大的空间。专家们还指出,概率编程有可能比当前的电路模型更接近 AGI。