北京时间5月14日凌晨,OpenAI公布了最新的GPT-4o。现场演示中,它的表现仿佛一个人正坐在旁边,和人类的对话节奏自然、融洽,完全听不出是个AI,在短短232毫秒内,GPT-4o就能对音频输入做出反应。并且,它可以将文本、音频、图像任何组合作为输入和输出。这意味着OpenAI朝着更自然的人机交互迈出了重要一步。
眼见AI是越来越强悍了,网上又出现了“AI要取代人类”的惊叹。面对能力渐强的AI,我们应该怎么办?
前段时间,我们跟物理学家、科普作家万维钢老师围绕AI的话题聊了很多,他对这个问题有着非常深度的思考。
他也说不清楚具体什么时候开始对AI感兴趣的,只记得很早:“如果你对物理学感兴趣,那么你会对所有事情都感兴趣。物理学就是想知道这世界是怎么回事,世界的基本定律是什么。”
但AI的出现让很多学科的基本范式发生了改变,万维钢称其将掀起一场“启蒙运动级别的大变革”。他迫切想知道,面对AI,我们凭什么认为自己更有价值?AI究竟会服务还是取代我们?届时,人该怎么办?社会将如何运转?
最近,他将这些思考集结成《拐点:站在AI颠覆世界的前夜》一书。在书中,他提出了很多反常识的洞察,对于人与AI共存的未来持乐观态度。下文根据本书以及我们与万维钢的谈话内容整理而成。
篇幅比较长,但看完一定有收获。
作者 | 阿空
编辑|浩然
本文为商隐社原创文章,转载请联系后台
AI到底牛在哪?
AI从上世纪80年代到现在一直是热门话题,人类总有一个梦想,想让计算机拥有人的智慧。此前我们一直以为AI离我们很遥远,我们对其想象只存在于科幻小说和电影里,阿尔法狗的出现让AI的能力变得具象化,ChatGPT使其风靡全球。
ChatGPT基于一项名为“卷积神经网络”的突破性技术,也就是深度学习,其实就是在模仿人脑,将神经网络分成若干层,每层只解决最小范围的信息,再层层汇总做出综合判断。
以前人们嘲笑AI连一只猫都无法识别,这技术出现以后AI就能很轻易做到了。
当然这不足为奇,如今最关键的还是算力的变化。以前AI识别图形只需要几千万个参数,已经是当时计算机处理能力的上限了。但短短几年之后,我们谈论的是上万亿级别的参数,现在参数的数量级比过去大了一万倍都不止。
算力提升以后,AI就可以做更复杂的事,想象空间被无限延展。它现在突然有了像人一样的智能,甚至可以说已经抓住了真实世界的一个投影,着实让人震撼。
相比人脑,AI的神经网络在复杂结构和灵活多变方面还要差很远。但即便是如此粗糙的模仿,也让AI具备了像人一样的智能。很难讲,如果将模型的参数量再扩大10倍、100倍,AI会不会生长出此前所不具备的功能,甚至超过人的能力?
当前有两派观点。一派认为当前的AI都是用人的语料训练的,所以AI的能力很快就会达到顶点,其上限就是人的能力。
另一派认为ChatGPT4明显比ChatGPT3聪明,现在ChatGPT4的能力已经非常接近于人,且当前没有证据表明扩大参数这招不再适用,我们完全可以推测ChatGPT5或ChatGPT6将远超人的能力。
届时,它将拥有全部的人类知识,并且从中突破,涌现出新的能力。马斯克大胆预测:2025年,AI可能会比任何人类都聪明;2029年,AI可能比所有人类加起来还要聪明。
这是非常合理的。在AI与人的各项能力指标对比中,其进步曲线是极其陡峭的,现在已经接近人的最高水平,我们凭什么认为它会在那个地方停下来?
这场AI革命让我们意识到,直觉是高于逻辑的。
到底什么是AI?以我之见,AI=基于经验+使用直觉+进行预测。
假设你用以往的经验数据训练一个模型,这个模型只关心输入和输出。训练完成之后,你再给它新的输入,它将给你提供相当不错的输出,你可以把这个动作视为预测。这就是AI。
此前人类为了认识和预测世界,主要用两种计算方法,一是神经网络,二是形式逻辑。
所谓“形式逻辑”就是把所有问题变成数学问题进行推导,每一步推演都有明确的因果关系,得出一个清晰的结论。形式逻辑代表“理性”,是人类智慧的伟大发明,也是启蒙运动以来唯一正统的分析问题的方法。
形式逻辑要求严格按照某些规则操作,这对人脑来说其实很费力。人类原本擅长的、天生就会的计算,其实是神经计算。人体是由几个神经网络组成的,它们提供各种感知,神经计算就是这些感知过程。
AI的感知方法跟人的感知方法别无二致,只不过比人的范围更广、速度更快,而且可以无限升级。
这么看来,也许启蒙运动以来形式逻辑方法的流行,人类学者对“理性”的推崇,只不过是漫长的智能演化史中的一段短暂的插曲。用神经网络直接从输入感知输出,才是更根本、更普遍、更厉害的智能。AI的出现只是让智能回归本性。
未来,每个AI都不一样,而且各有各的风格。哪怕做的是同样的事,因为经历的训练不一样,它们的产出也会各不相同。世界将从工业复制时代重归匠人定制时代。而那样一个直觉而非逻辑的世界,原本就是我们熟悉的。
这也是对启蒙运动的一种颠覆。启蒙运动始于牛顿的物理定律,在此之前,人们对大自然的认识非常感性,会把自然现象归为神的意志。但牛顿认为这背后都是由物理定律决定的,只要用方程和测量就能算清万事万物的规律。所以说启蒙运动是一种理性化的运动,主张用理性和规则取代感性认知。
但AI恰恰不是这样,AI只是一种感觉,它基于神经计算,这边给输入,那边就给输出,中间是黑箱。搞不懂这个输出是怎么得出的,就像一种情绪,一种感觉,一种直觉。
然而事实证明这种直觉是如此准确,大量训练过后的AI让我们又回到了当初感性的状态,这比理性计算更根本、更普遍、也更方便。
事实上,直觉是应对复杂局面最好的方法,很多问题是没有办法通过理性一点点计算的,就像一个篮球运动员投篮不会先计算好角度、速度和旋转弧度,只是凭感觉一投就进了,这就是直觉。
所以说,AI的思维方式恰恰就是人的感性思维。从人的智能到人工智能之变,不但比信息革命重要,而且比工业革命重要。这是启蒙运动级别的大事件。
人比AI厉害在哪?
在AI超越了启蒙运动的理性主义之后,纯感性的东西我们又该怎么理解?机器人跟人之间到底有没有本质区别?如果AI有了意识,这时候我们给它断电关机是不是一件很残忍的事情?有意识的AI是不是应该拥有人权?
我们迫切需要AI时代的哲学来回答这些问题。以我之见,AI时代的康德就是斯蒂芬·沃尔夫勒姆。他的招牌理论是“计算不可约性”,也是让你对未来有信心的关键。
世界上有些事情是“可约化的”,比如浓缩的陈述、理论、公式都是对现实信息的压缩表达,也就是某种约化。有了约化就有了思维快捷方式,就可以对事物的发展做出预测。
人们希望科技进步能约化一切现象,但现实恰恰相反。数学家早已证明,真正可约化的,要么是简单系统,要么是真实世界的一个简单的近似模型。一切足够复杂的系统都是不可约化的。
对于计算不可约的事物,本质上没有任何理论能提前做出预测,你只能老老实实等着它演化到那一步,才能知道结果。这就是为什么没有人能在长时间尺度上精确预测天气、股市、国家兴亡或者人类社会的演变。不是能力不足,而是数学不允许。
计算不可约性告诉我们,任何复杂系统本质上都是没有公式、没有理论、没有捷径、不可概括、不可预测的。这看起来像是个坏消息,实则是个好消息。
因为计算不可约性,人类对世间万物的理解是不可穷尽的。这意味着不管科技多么进步、AI多么发达,世界上总会有对你和AI来说都是全新的事物出现,你们总会有意外和惊喜。
计算不可约性规定,人活着总有奔头。
伴随计算不可约性的一个特点是,在任何一个不可约化的系统之中,总有无限多个“可约化的口袋”。也就是说,虽然你不能总结这个系统的完整规律,但是你永远都可以找到一些局部规律。
所以,虽然世界本质上是复杂和不可预测的,但我们总可以在里面做一些科学探索和研究,总结一些规律,说一些话,安排一些事情。绝对的无序之中存在着无数个相对的秩序。
计算不可约性还意味着,我们不可能彻底“管住”AI。只要模型足够复杂,它就一定可以做一些你意想不到的事情——可能是好事,也可能是坏事。
我们管不住AI,那会不会出现一个终极AI,能把我们的一切都给管住呢?也不可能,还是因为计算不可约性。AI再强,也不可能穷尽所有算法和功能,总有些事情是它想不到也做不到的。
也就是说,全体AI加在一起也不可能穷尽所有功能,总会有些事情留给人类去做。那人和AI的关系将是怎样的呢?
沃尔夫勒姆的第二个核心观念叫“计算等价原理”,意思是所有复杂系统——不管提起来多复杂——都是同等复杂的,不能说哪个系统比哪个系统更复杂。
假设你装了一塑料袋空气,里面有很多个空气分子,这些分子的运动非常复杂,人类社会也非常复杂。那人类社会的复杂程度是不是高于那一袋空气分子运动的复杂程度呢?不是,它们同等复杂。
这就是说,从数学上讲,人类文明并不比一袋空气分子更高级,人类社会也不比蚂蚁社会更特殊。
以前的人以为人是万物之灵长,地球是宇宙的中心;后来发现,地球不是宇宙的中心,人类也只是生命演化的产物,我们的存在跟万物没有什么本质的特殊之处。
现在AI模型则告诉我们,人的智力也没有什么特殊之处。任何一个足够复杂的神经网络都是跟人的大脑同等复杂的。不能认定人能理解的科学理论就高级,AI识别药物分子的过程就低级。
既然都是平等的,硅基生命和碳基生命自然也是平等的。那面对AI,我们凭什么认为自己更有价值?
这就引出了沃尔夫勒姆的第三个核心观念:人的价值在于历史。
我们之所以更看重人类社会,而不是一袋空气分子或者一窝蚂蚁,是因为我们是人。我们身上的基因背负了亿万年生物演化的历史包袱,我们的文化承载了无数的历史记忆。我们的价值观,本质上是历史的产物。
现在AI几乎已经拥有了人的各种能力:要说创造,GPT可以写小说和诗歌;要说情感,GPT可以根据你设定的情感生成内容;GPT还有远超普通人的判断力和推理能力,还有相当水平的常识。
但是,AI没有历史。
AI的代码是我们临时编写的,而不是亿万年演化出来的;AI的记忆是我们用语料喂出来的,而不是一代代“硅基祖先”传给它的。
AI至少在短期内没有办法形成自己的价值观。它只能参照或“对齐”我们的价值观。这就是人类相对于AI最后的优势。
这样我们就知道了AI到底不能做什么:AI不能决定人类社会探索未知的方向。
根据计算不可约性,未来总会有无数的未知等着我们去探索,而AI再强也不可能在所有方向上进行探索,总要有所取舍。取舍只能根据价值观,而真正有价值观的只有人类。
当然,这个论断的隐含假设是AI还不完全是人。也许AI有人的智能,但只要它们没有跟我们一模一样的生物特性,没有跟我们一模一样的历史感和文化,它们就不足以为我们做出选择。
同样根据计算不可约性,AI无法完全“预测”我们到时候会喜欢什么。只有我们亲自面对未来的情况,在我们特有的生物特性和历史文化影响下,才能决定喜欢什么。
这样看来,哪怕将来真有很多人再也不用工作,直接领低保过日子,这些人也不是“无用之人”,至少人还有喜好。如果你厌烦了平常的事物,突然产生一个新的喜好,就是在探索人类新的可能性。
你的主动性的价值高于一切AI。
所以只要AI还不完全是人,输出主动性、决定未来发展方向的就只能是人,而不是AI。
当然,根据计算不可约性,我们也不可能完全掌舵,总会有些意外发生,其中就包括AI带给我们的意外。
人怎样比AI更强势?
人根本不可能永远掌控AI。
AI有自己的发展规律,就像大自然。大自然是我们至今不能完全理解的,大自然偶尔还会降下地震、火山爆发等,我们无法控制、预测。
但这么多年来,我们适应了跟大自然相处,这就是共存。AI将来肯定会对人类造成一定的伤害,正如有汽车就有交通事故,我们认了。
虽然大自然经常灾害肆虐,但人类文明还是存活下来了。沃尔夫勒姆认为其中的根本原因是,大自然的各种力量之间、我们跟大自然之间达成了某种平衡。
我们将来跟AI的关系也是这样——我们希望人的力量和AI的力量能始终保持大体上的平衡,AI之间也能互相制衡。
如果AI太强,而人类太弱,我们可能会被AI统治。启蒙运动让人们抛开上帝,拥抱理性,可AI却能达到人的理性达不到的地方。如果AI什么都知道,它的判断总是比人类正确,人们就会把AI当成神灵,从强烈相信AI变成信仰AI。
人们有什么事不是自己判断,而是问AI,这不就是“神”又回来了吗?没准将来AI会接管社会的道德和法律问题,就像中世纪的基督教。
为了避免这样的情况发生,我们就必须把AI当工具,人一定要比工具强势。
图源:《我, 机器人》
我们要始终掌握控制权,可以把AI当做一个助手、一个副驾驶。AI的作用是帮你更快、更好地做出判断,帮你做不屑于花时间做的事。人要比AI凶。
AI改变了决策权,现在问题的关键是如何把决策权牢牢握在我们手中。
决策=预测+判断。预测是告诉你发生各种结果的概率是多少;判断是对于每一种结果,你在多大程度上愿意接受,能否承受选择背后的代价。
所以更好的方式是利用AI进行预测,将各种可能的结果摆在面前,再由人类做出选择。将预测跟判断脱钩,这是对人是一种赋能。
因此,AI时代的决策=AI的预测+人的判断。预测是客观的,判断是主观的,AI不能僭越人的判断,人也不应该专断AI的预测。判断的能力正变得越来越重要。
为了保证人比AI强势,大众教育的培养目标也应当做出调整。AI能做好的事,你就不要学着做了,你的任务是驾驭AI,应该把大脑解放出来学习更高级的技能。未来比较核心的能力有:
调用力。各种自动化工具都是现成的,但是太多了,你得有点学识,才能知道干什么事最适合用什么工具。你要想对事情有掌控感,最好多掌握一些工具。
批判性思维。既然你要做选择,就得对这个世界是怎么回事有个基本的认识。你得区分哪些是事实,哪些是观点,哪些结论代表当前科学理解,哪些说法根本不值得讨论,学着明辨是非。
计算机思维。不是说非得会编程,而是你得善于结构化、逻辑化地去思考。
懂艺术和哲学。这会提高你的判断力,让你能提出好的问题。艺术修养尤其能让你善于理解他人,这样你才能知道别人的需求,甚至想象出新的需求。
传播能力和说服力。你能把一个复杂想法解释清楚吗?你能让人接受你的观点吗?你能把产品推销出去吗?高端工作很需要这些。
当你足够强势,AI对你的作用有三个:一是信息杠杆,二是让你发现自己究竟想要什么,三是帮你形成自己的观点和决策。
AI时代,一切信息皆唾手可得,整个互联网就是你的硬盘,人类所有的知识就是你的第二大脑。你真正需要保存的是自己每天冒出的新想法,是你对信息的整理和解读。
一切落实到你自己,这样你才不会在AI面前失去自我。
为什么AI还没帮我们赚到钱?
为什么AI还没帮我们赚到钱?其实这个现象并不是特例,这是“通用技术”正常的发展阶段。
蒸汽机、电力、半导体、互联网都是通用技术。它们不是一上来就能创造巨大财富。1987年经济学家罗伯特·索洛就感慨:我们这个时代到处都能看到计算机,唯独生产力统计里看不见计算机。
通用技术刚出来不会立即改造经济活动,要经过三个阶段:点解决方案、应用解决方案、系统解决方案。
AI的点解决方案是用AI改善你现有的决定;应用解决方案是用AI改变你做决定的方式;系统解决方案是AI促成了新的决定,生产模式整个变了。
当前我们对AI的应用还处在点解决方案和一定程度上的应用解决方案解读,还没达到系统解决方案阶段。
如今计算机已成为创造生产力的重要工具,相信在不久的将来,AI也会如此。
AI会逐渐抢走我们的工作吗?至少从工业革命以来的历史经验看来,不会。历史经验是,自动化技术会创造出新职业。
比如,以前每打一次电话都需要有个接线员帮你接线,那是一份很体面的工作。有了自动的电话交换机,不需要接线员了,电话行业的就业人数是不是减少了呢?恰恰没有。
自动交换机让打电话变得更方便、更便宜,于是电话服务的需求量大增,行业整体变大,马上又多出很多以前不存在的岗位。总的结果是,电话业的就业人数不但没减少,反而大大增加。
类似的事情在各个行业反复发生。经济学家已经总结出一套规律:自动化程度越高,生产力就越高,产品就越便宜,市场份额就越大,消费者就越多,生产规模就必须不成比例地扩大,结果是企业需要雇佣更多的员工。
自动化的确会取代一部分岗位,但也会制造更多新岗位。自动化程度最高的行业正是就业增加最多的行业。反倒是没有充分实现自动化的公司不得不缩小就业规模,要么把生产外包,要么干脆倒闭。
如果怕AI抢人的工作,所以要限制AI发展,拒绝自动化,那就太愚蠢了。保护哪个行业,哪个行业就会落后,产品就会越来越贵,消费者越来越少。
现在ChatGPT让编程和公文写作变容易了,Midjourney之类的AI画图工具甚至已经使得有些公司裁掉了一些插画师。但根据历史规律,它们会创造更多的工作。
比如“提示语工程师”就是刚刚出现的新工种。再比如,AI作画如此容易,人们就会要求在生活中各个地方使用视觉艺术。以前墙上挂世界名画,未来可能挂绝无仅有的新画,而且每半小时换一幅。那么可以想见,我们会需要更多善于用AI画画的人。
我们不妨把AI想成是小人和奴隶,咱们都是君子和贵族。看看中国历史,春秋时代人们对君子的期待从来都不是智商高、干活多,而是信用、声望和领导力。我们要学的不是干活的技能,而是处理复杂事物的艺术,是给不确定的世界提供秩序的智慧。
这对领导力也提出了新的要求。
人怎样去领导AI?
未来每个人都需要“领导力”,不一定非得是对人的领导力,至少需要对AI的领导力。这包括制定战略目标、安排工作步骤、设置检验手段等。
尼克·查特拉思在《门槛》一书中提出了“AI时代的领导力”的概念。
这有啥不一样呢?我们不妨先来回顾一下领导力的演变。
最早的领导力是“英雄主义”。我是这个狼群中最能打的,所以你们都得听我的,我说怎么办就怎么办。这是最土的领导。
近现代以来出现了“军队式”的领导力。讲究命令的稳定性和可靠性,做事得有章法,不能朝令夕改。这种领导力的问题在于容易出官僚主义,什么都讲制度和流程,有时候忘了初心。
后来主流管理学倡导“机器式”的领导力。它以目标为核心,讲考核、问责、任人唯贤,提倡比较扁平的组织结构,追求效率最大化。这是国内民营企业常见的领导方式。这种领导力的问题在于它可能会让视野窄化,过于关注具体的目标,时间长了会让人产生倦怠感,乃至丧失视野。
新一代管理学倡导的是“价值观和愿景”。比如“我们不是一个只知道赚钱的公司”“我们是为客户创造价值”。它讲究“服务式领导”,组织希望员工对要做的事情达成共识,不但知道做什么,更要知道为什么。
这种领导力的问题是,现在社会上各种价值观是冲突的,共识难以达成。那怎么办呢?
“门槛领导力”特别重视人格魅力:你的公司、你的事业,本质上是你的人格的放大;你有多大的认知,就能做多大的事;你的认知有多复杂,就能做多复杂的业务。
这不只是上级对下级,既可以是商家对顾客,媒体对公众,也可以是下级对上级:只要能对别人产生影响,让人沿着你选的方向前进,都是领导力。AI时代,每个人都需要一点门槛领导力。
AI当然能给你提供各种建议方案,但是像免费还是收费、要花多大成本保护用户隐私等充满矛盾和悖论的问题,是你必须做的选择。这不是智力题和知识题,而是人格题。对公司来说,现代社会正在变成熟人社会,你需要“内圣外王”的能力。
查特拉思说:“无论领导者在领导时认为自己在做什么,他们都在揭示自己的本质。”
你和员工是什么样的,公司就什么样。你们既是在探索自己是谁,也是在帮助客户发现他们是谁。所有品牌竞争都是人的精神内核的较量。AI只是放大了这种较量。
用上AI很容易,任何公司都能以非常便宜的价格购买OpenAI的算力;但是一家有AI而没有内核的公司应该被AI淘汰。
我们怎样活出“人样”?
人相对AI有个绝对的优势,也是AI至少在短期内赶不上的,那就是人更理解人。AI再厉害也得听人指挥,最终做决策的必须是人,用中国话说这叫“底线思维”;一切生产、科研都是为了人。
需求必须是各项事业的出发点和落脚点,所以理解人永远都是最重要的智能。
AI时代,在逻辑运算、听说读写那些一般认知项目上,我们已经输了。我们要发挥长板优势,就必须让自己更像人,而不是更像AI。
比较重要的一点是要充分感知自己和他人的情绪,区分不同情感之间的微妙差别,会对你的决策有重大影响。
AI时代的商业要求你认识自己、认识你的团队、认识你的客户。要想真正理解数据就得深入到用户中间去。这些都要求你跟用户有情感沟通。这些是AI不能做的。
情绪并不是纯粹的大脑功能,情绪跟身体有很大关系。我们很多时候是通过身体的反应了解自己的情绪。AI没有身体,它怎么能有人的情绪呢?它怎么能理解、预测人的情绪呢?至少到目前为止,情绪功能还是人的优势。
如果超级人工智能也能做得像真人一样。它虽没有真实肉体,不能真正感觉到情绪,但它会计算情感。它不但能准确判断你的情绪,还能用最好的方式表达她的情感。
它简直就是完美的。人的所有技能它都会,人不会的它也会。它会用人类特有的情感方式说服你、暗示你、帮助你,包括使用肢体语言。它非常理解你的性格和你的文化背景,它的管理方式、制订的计划,方方面面的安排都非常完美。每个接近过它的人都能感受到它是充满善意的。它简直就像神一样。
要是这样的超级人工智能已经出现而且普及了,请问,你这个人类还有什么用?
查特拉思认为,你至少还有一项价值不会被超级人工智能取代。那就是“爱”,一个真人的爱。
来自机器的爱和来自真人的爱,感觉毕竟不一样。人的爱是真的,因为只有人能真的感觉到你的痛苦和喜悦,人跟人才会有真正的瓜葛。其实这很容易理解,像什么机器宠物,甚至性爱机器人,就算再好,你总会觉得缺了点什么。
查特拉思预测,超级人工智能时代的主角将不会是机器,但也可能不会是人——而是爱。当物质和能力的问题都已经解决,世界最稀缺的、人们最珍视的,将会是爱。
早在1950年,控制论之父诺伯特·维纳就出了本书叫《人有人的用处》,认为生命的本质其实是信息:我们的使命是给系统提供额外的信息。在信息意义上,人生的价值在于争取选择权、多样性、不确定性和自由度。
别人交给你一个任务,你按照规定程序一步步操作就能完成,那你跟机器没有区别。只有这个过程中发生了某种意外,你必须以自己的方式甚至价值观解决问题,在这件事上留下你的印记,才证明你是一个人而不是工具。
人不是程序,人不应该按照固定规则生活。人生的使命就是要制造意外,增加信息。有些意外来自你的情感,有些来自你身体的独特感知,有些来自你自主的思考。
不管来自哪里,它们一定不是来自AI给你的灌输,一定不是来自你对领导意图的揣摩。
那些任性而为的时刻,才是你真正活着的时刻。