在一项新的调查中,76%的科学家表示,扩展大型语言模型“不太可能”或“非常不可能”实现通用人工智能(AGI)。
最近对行业专家的一项调查显示,目前的人工智能(AI)方法不太可能创造出与人类智能相匹配的模型。
在接受调查的475名人工智能研究人员中,76%的人表示,大型语言模型(LLM)的扩展“不太可能”或“非常不可能”实现通用人工智能(AGI),这是一个假设的里程碑,机器学习系统可以像人类一样有效或更好地学习。
这是对科技行业预测的一个值得注意的驳斥,自2022年人工智能繁荣以来,这些预测一直认为,目前最先进的人工智能模型只需要更多的数据、硬件、能源和资金,就能超越人类的智能。
现在,由于最近发布的模型似乎停滞不前,人工智能促进协会调查的大多数研究人员认为,科技公司已经走到了一个死胡同,而且钱也救不了它们。
“我认为,自从GPT-4发布后不久,从扩容中获得的收益就很明显了,而且代价高昂,”加州大学伯克利分校的计算机科学家斯图尔特·拉塞尔(Stuart Russell)告诉媒体。他帮助组织了这份报告。“(人工智能公司)已经投入了太多,当它们必须偿还投入数千亿美元的投资者时,它们承担不起承认自己犯了错误(并)退出市场几年的后果。所以他们所能做的就是加倍下注。”
收益递减
近年来LLM的惊人进步部分归功于其底层的Transformer架构。这是一种深度学习架构,由谷歌科学家于2017年首次创建,通过吸收人类输入的训练数据来成长和学习。
这使得模型能够从它们的神经网络(机器学习算法的集合,以模仿人类大脑的学习方式)中生成概率模式,方法是在给定提示时向前馈送它们,随着更多数据的增加,它们的答案的准确性也会提高。
但这些模型的持续扩展需要大量的资金和能源。仅在2024年,人工智能行业就在全球筹集了560亿美元的风险投资,其中大部分用于建设庞大的数据中心综合体,自2018年以来,这些数据中心的碳排放量增长了两倍。
预测还显示,对进一步增长至关重要的有限的人为数据,很可能在本十年末耗尽。一旦发生这种情况,替代方案将是开始从用户那里收集私人数据,或者将人工智能生成的“合成”数据输入回模型中,这可能会使模型面临因吞下自己的输入后产生的错误而崩溃的风险。
但调查专家表示,当前模型的局限性可能不仅仅是因为它们对资源的渴求,还因为它们的架构存在根本性的局限性。
“我认为当前方法的基本问题是,它们都涉及训练大型前馈电路,”斯图尔特·拉塞尔说。“电路作为一种表示概念的方式有根本的局限性。这意味着电路必须是巨大的,即使是近似地表示这些概念 —— 本质上是一个美化的查找表 —— 这导致了大量的数据需求和零敲碎打的表示。这就是为什么,例如,普通的人类棋手可以轻松击败“超人”围棋程序。
人工智能发展的未来
一些受访者表示,所有这些瓶颈都给致力于提高人工智能性能的公司带来了重大挑战,导致评估基准得分停滞不前,而传闻中的OpenAI GPT-5模型从未出现过。
中国公司深度求索(DeepSeek)今年也削弱了那种总能通过扩展实现改进的假设。深度求索的性能与硅谷昂贵机型相当,而成本和功率只是后者的一小部分。由于这些原因,79%的受访者表示,对人工智能能力的看法与现实不符。
“有很多专家认为这是一个泡沫,”斯图尔特·拉塞尔说。“尤其是当性能合理的模型免费赠送时。”
然而,这并不意味着人工智能的进步已经消亡。推理模型 —— 专门为查询投入更多时间和计算能力的模型 —— 已经被证明比它们的传统前辈产生更准确的响应。
受访者表示,这些模型与其他机器学习系统的配对,尤其是在它们被提炼成专门的尺度之后,是一条令人兴奋的前进道路。DeepSeek的成功表明,在如何设计人工智能系统方面,工程创新还有很大的空间。专家们还指出,概率编程有可能比目前的电路模型更接近AGI。
俄勒冈州立大学计算机科学荣誉教授托马斯•迪特里希(Thomas Dietterich)指出:“工业界正押下重注,相信生成式人工智能将会有高价值的应用。在过去,重大的技术进步需要10到20年才能显示出巨大的回报。”
他补充说:“通常第一批公司都会失败,所以我不会对今天许多GenAI初创公司的失败感到惊讶。但其中一些很可能会大获成功。我希望我知道是哪些。”
如果朋友们喜欢,敬请关注“知新了了”!