最近,技术峰会上有这么一个有趣的对话:一位开发者感叹,现在的小型人工智能模型已经可以在普通笔记本电脑上运行了,“以后是不是普通用户可以随便用AI,也不用担心又快又贵的硬件设备了?
”半小时后,另一位企业高管直接在台上泼了冷水:“硬件和算力的需求不仅不会减少,还会越来越强!
”
两种截然不同的观点,听得台下的观众一头雾水。
这背后究竟是怎么回事?
在最近的一次采访中,FutureLabs首席专家胡延平分享了他的见解,并提出了一些让人深思的观点。
DeepSeek的创新点是什么?
DeepSeek最近的表现确实让人眼前一亮。
它用更低的成本训练了性能非常强大的模型,甚至赶上了不少国际领先模型的能力。
这漂亮的成绩单背后,离不开一些关键技术的支持。
比如,DeepSeek开发了一种“混合精度”的方法,简单来说,就是能更高效地利用芯片算力,同时又保证模型的性能不打折扣。
而且,它的强化学习机制也有点特别——以前大多是注重过程优化,而DeepSeek更关注结果,这帮助模型学会了更复杂的推理能力。
除此之外,还有一些更细节的技术,比如汇编技术提升效率、多头注意力机制模型更灵活等。
既然有这么多亮点,那是不是意味着AI的门槛正在快速降低?
事实却没有那么简单。
大模型成本降低会带来哪些影响?
按理来说,既然成本在下降,AI看起来不就是变得越来越平易近人了吗?
确实,这点没错。
现在普通的开发者已经能用笔记本电脑运行某些小型AI模型了,这在几年前几乎是不可想象的。
胡延平指出,尽管训练和使用一个模型的成本在下降,整体市场对算力的需求却只增不减。
为什么会有这样看似矛盾的现象?
一个重要的原因是,AI的应用场景在快速增加。
从高效办公到汽车驾驶,再到每天用的智能手机,AI的“胃口”只会越来越大。
更别说,未来的一些物理现实领域模型,比如让机器学习更好地理解空间、时间场景的模型,算力需求会陡增。
也就是说,虽然单个AI模型的效率在提升,但这些模型的数量级却在快速增长。
用胡延平的话来说:“这就是AI算力需求越明显的根本原因。
”
AI基础设施投资是否仍然重要?
在DeepSeek等一系列新技术的推动下,有些人会想,既然模型可以更省资金,超大型的数据中心是不是没那么必要了呢?
胡延平再一次泼了点冷水。
他认为,不论是大规模数据中心建设,还是算力硬件的研发,都不可能被省略。
这尤其是因为AI的发展有一种“双曲线”规律:一方面,更多的投资能推动模型能力持续增强;另一方面,AI的计算效率提升可以带来成本降低。
这两条曲线并存,但哪一条曲线都不能停下。
特别是对于一些需要超大算力支持的行业,比如自动驾驶、新型医疗应用等,基础设施的投入还是必不可少的。
简单点说,如果想让AI变得越来越聪明、越来越实际,背后硬件和算力支持的“地下工程”是必须的。
未来AI发展的方向与挑战聊完现状,我们再看未来,AI的发展方向可能并不是人们想象的那样简单。
胡延平指出,“通用人工智能”或“超级人工智能”这些表面概念,其实并不是终极目标。
AI在未来会变得更注重“内生智能”和现实感知,这意味着它不仅仅是学习知识,而是真的学会思考、感知世界。
这个趋势也给AI发展带来了新的挑战。
芯片技术要能满足模型的更高要求,模型本身的算法原理也需要升级。
此外,把AI带入更复杂的现实环境,也迫使研究人员必须开发更加能适应物理世界的算法和技术。
胡延平打了个比方:未来的AI就像一辆真正的“智能汽车”,不仅能听懂语音指令、规避障碍物,还能理解车主的习惯、预测雨雪天气的影响甚至帮你调整出最舒服的驾驶体验。
这样的能力显然需要更智能的模型,也需要更强大的硬件支持。
结尾:成长的“隐性成本”AI技术的发展总是让人兴奋,但也会产生新的问题和挑战。
DeepSeek的出现无疑是个好消息,它让更多人开始思考“低成本高效模型”背后的意义。
我们不能忽略的是,AI要真正进入生活,每一块硬件的进步、每一份基础设施的投入,都是必不可少的“隐性成本”。
技术的成长从来不是单一的线性路径。
正如胡延平所说,在这条路上,“追求智能本身的提升,始终是最核心的目标。
”未来的AI不仅会更强大,也会更贴近人类的需求,这或许才是它真正值得期待的地方。