人与AI的对弈是否已经毫无意义?
——“总有一天AI会拥有自我,并将人类排除在外吗?”
摘自:
原题:「未来の囲碁を先取り」した!?…プロ困惑の一手で圧勝した囲碁AI「AlphaGo」はなぜこれほど強くなれたのか
摘自:现代Media
作者:田口善弘
“总有一天AI会拥有自我,并将人类排除在外吗?”——对于2024年诺贝尔物理学奖得主、天才科学家辛顿的警告,物理学家田口善弘提出了正面否定。
理由很简单:人工智能(AI)和人类的智能本质上是不同的。然而,所谓“智能”究竟是什么?要解开这个谜团,就必须重新定义“智能”这一概念,并探究人类与AI之间“智能的差异”。
自我对弈
在电脑游戏领域引发革命的,是由Google DeepMind公司发起的围棋挑战。他们通过让神经网络学习过去的围棋对局数据,试图使AI具备对抗人类职业棋手的能力。
机器学习要提高性能,需要大量学习数据。围棋拥有悠久历史,积累了数百万局由职业棋手的“高水平”对局,这些都可以用作学习数据。
但DeepMind开发的AlphaGo不仅如此,还引入了“自我对弈”功能。所谓自我对弈,是让AlphaGo彼此对弈,从中生成新的学习数据,再用这些数据进行学习,从而变得更强。
引领未来的围棋
乍一看,这种方式似乎无法变强,但实际并非如此。通常,顶级职业棋手下一局棋需要几天时间,而AlphaGo没有这种限制。它可以生成无数个副本并行对弈,因此可以积累大量对局数据。
AlphaGo通过学习128万局完整对局来提升自己。结果,它掌握了许多连人类都未曾见过的下法。当人类顶级棋手输给AlphaGo时,其落子甚至被评价为“AlphaGo的围棋已无法用现有观念解释”。
尤其是在围棋中后盘才应处理的中腹,AlphaGo从开局就大胆进攻,这令人类职业棋手感到困惑。或许人类职业棋手在遥远的未来也能达到AlphaGo的水平,但AlphaGo通过大量自我对弈,率先“预演”了未来的围棋。
AlphaGo的ASI性
如今,关于是否存在超越人类的ASI(人工超级智能 Artificial Super Intelligence)、以及何时出现的讨论热闹非凡。但如果仅仅指“超越现有人类智能”,那AlphaGo也可以算是其中一种。
但必须注意,这种“超越”只是提前获得知识而已。就像“神童”有两类:一种是早熟型,只是比同龄人成熟得早,但长大后优势会消失;另一种是真正的天才,成年后仍然维持领先优势。
AlphaGo的ASI性属于前者。因此,在讨论何谓ASI时必须保持警惕。
看似“超级智能”的AI终会出现,但它是仅仅提前掌握了知识(即便这已很了不起),还是已经达到人类无法企及的高度,这点需要我们保持辨别力。
毕竟,大学里现在教授的数学,刚诞生时也只有极少数天才才能理解,曾被视为“高等”概念。
AlphaZero的惊人性能
靠自我对弈超越人类的AlphaGo后来不再与人类对弈,认为那“毫无意义”。但它的进化并未止步。
其继任者AlphaZero能处理围棋、将棋、西洋棋等所有对弈型游戏。其方法是:完全摒弃“从人类对局学习”的方式,只给予规则,其余全靠自己自我对弈进化。因此,它成为了适用于各种游戏的通用型AI。
AlphaZero的能力极为惊人。它不仅超越了由自我对弈训练、并曾击败人类顶尖棋手的AlphaGo Zero,而且只用了短短8小时的学习时间,在100局比赛中以60胜40负的战绩胜出。而AlphaGo Zero在完全自我学习的前提下,击败旧版本则花费了40多天,这一对比令人震惊。
这一发现——只要给出规则,再通过自我对弈学习即可变强——带来了巨大冲击。比如,AlphaZero的后继者MuZero更进一步,连“规则本身”也纳入学习对象。换言之,哪怕是围棋、将棋,甚至是电子游戏,MuZero都可以通过观察对局过程来推测规则、学习规则,并在掌握规则后通过自我对弈不断进化。
AlphaZero在棋盘上直接进行战略思考,而MuZero则是在某种由其内部构建的、代表棋盘或游戏画面的“另一个空间”中进行思考。
也就是说,MuZero并非直接处理现实世界,而是在其内部构建的“现实的解释空间”中进行模拟。