人工智能学得会人类社会的道德观与价值观吗?人工智能系统能否在对不同人群的损害与利益之间做出权衡决策?人工智能学得会判断对错吗?归根结底,人工智能,能否拥有“良知”?
考虑到目前的AI系统只能完成极少数针对性极强的任务,我们似乎还远没到需要考虑以上几个问题的时候。但随着科学不断开辟出新的天地,人工智能正迈向更广阔的领域,甚至包括刑事司法与招聘分析等很难用明确的好坏定义进行边界划分的场景。
未来,我们希望AI系统能够照料老年人、引导孩子们的成长,并完成其他很多需要做出道德判断的任务。到那时,人工智能的良知与良心问题将变得至关重要。
着眼于这些问题,我查找了很多相关论著,其中解释了人类如何一步步发展出良知,也阐述了人类对大脑的理解能否为AI技术的未来发展提供指导。
我的一位好友向我推荐了加州大学圣迭戈分校神经科学家兼哲学家Patricia Churchland教授撰写的《良知:道德直觉的起源》(Conscience: The Origins of Moral Intuition)一书。Churchland博士让我对脑科学的研究成果与当前局限性有了很多了解。这本书则让我们意识到,目前人类对于大脑物理结构及运作机制的了解,同人类道德观念之间确实存在关联。最重要的是,这本书提醒我们要想真正理解人类如何做出道德决策,还需要做出更多努力、攻克更多难关。
对于任何有意探索人类良知的生物学背景,并反思AI技术与良知之间交集的朋友来说,这都是一本既好读又意蕴深邃的佳作。
这里我们对此书的核心要旨做出简单总结:大脑是AI的主要蓝图,而对良知的理解将帮助我们更确切地引导AI学习人类社会中的道德规范。
学习系统
Churchland在她的书中写道,“良知是个人在对错问题上的通行判断,往往(但并不总是)反映出个人所秉持的某种群体性标准。”
但人类是如何发展出理解是非的能力的?为了回答这个问题,Churchland博士带我们回到过去,从地球上出现的最早的恒温动物说起。
鸟类和哺乳动物都属于恒温动物,它们的身体始终保持着一定的温度。与之对应,爬行动物、鱼类及昆虫等冷血动物的体温则与环境温度保持统一。
恒温的最大好处,在于确保动物能够在夜间乃至寒冷的气候中继续活动。但作为代价,恒温动物必须摄入更多食物才能保持体温、正常生存。这一基本要求,推动恒温动物的脑部发生了一系列进化,将其智能推向新的高度。其中最值得注意的,又数哺乳动物的大脑皮层发育。
大脑皮层可以整合各类信号,并从中提取与生存及系列活动相关的事件与事物的抽象表示。皮质能够建立起学习、整理、修改、回忆、而后继续学习的迭代循环。
与昆虫及鱼类相反,哺乳动物的发达皮层使其拥有更灵活的气候与景观适应能力,由此突破了昆虫及鱼类对环境稳定性的高度依赖。
但这种学习能力同样是有代价的:哺乳动物天生更弱小、更需要照料。与蛇、乌龟和昆虫不同,哺乳动物的幼崽刚出生时无法快速适应环境,反而需要花时间来学习并培养自己的生存技巧。
正因为如此,哺乳动物才发展出了彼此依存的群体共生关系。
社会行为的发展
一切生物的大脑中都存在着奖励与惩罚机制,能够确保它们做出有利于个体生存及基因延续的事情。哺乳动物的大脑就利用这一功能以适应社交行为。
Churchland写道,“在哺乳动物的进化过程中,总是依靠愉悦感与痛苦感支持其自我存续活动,而这一切又逐步衍生出了亲属关系。这就是自爱感受的天然延伸——发展为其他类型的爱。”
这种变化的主要受益者是哺乳动物的后代。进化引发了哺乳动物大脑回路层面的变化,能够奖励对婴儿的照料。母亲(甚至是某些物种群体中的双亲)会竭尽全力保护和喂养后代,尽管这通常不利于其自身的生存。
在《良知》一书中,Churchland描述了对不同哺乳动物的大脑进行生化反应的实验,并发现正是这些反应实现了对社交行为——包括照料后代——的奖励。
“哺乳动物的社交性与其他缺乏皮质的社交型动物(例如蜜蜂、白蚁和鱼类)在质量上有着很大的区别。哺乳动物的社交行为更灵活、大多不属于反射性行为,对环境中的突发事件以及各类证据性条件也非常敏感。换言之,哺乳动物的社交大脑为其赋予了良好的短期与长期敏感能力,由此帮助其在丰富的社交活动中了解其他个体的意图与期望。”
人类社交行为
图注:人类的大脑皮层有着所有哺乳动物中最大、最复杂的皮质结构人类的大脑皮层有着所有哺乳动物中最大、最复杂的皮质结构。智人的脑容量达到黑猩猩的3倍,而黑猩猩在5800万年之前与我们拥有着共同的祖先。
较大的脑容量当然可以提升我们的智力水平,但也会消耗掉更多能量。那我们要怎么抵平这份逃不掉的热量账单呢?Churchland写道,“学会用火煮饭可能代表着一种革命性的行为转变,它使原人的脑容量远远超过黑猩猩的大脑,并在后续的进化时期内迅速扩展。”
在满足了人体对于能量的需求之后,原人最终能够完成更多复杂的任务,包括发展出更丰富的社交行为与社会结构。
因此,我们今天在人类特种中看到的复杂行为,包括对道德规范及规则的遵循,最初完全出于对生存以及满足能量供应的需要。
Churchland在书中写道,“能源约束与习惯或哲学无关,而是一种冷冰冰的自然法则。”
我们的遗传进化有利于社交行为,道德规范则以切实可行的解决方案姿态出现。与其他所有生物一样,我们人类同样受到进化定律的约束,Churchland将其描述为“一个盲目的过程,没有任何目标,只是在既定的结构当中左冲右突。我们的大脑结构,就是无数次实验和调整的结果。”
Churchland写道,“有些大脑回路负责支持社交与自我照料,有些则负责支持社交规范,正是这些回路之间的彼此交互,创造出了我们所谓的良知。从这个意义上讲,良知是大脑物理构造的必然体现,其通过关心自己、关心他人这一本能,发展、模拟并转化出特定的行为。”
这是一个非常敏感且复杂的话题。尽管脑科学取得了不小的进步,但人类思维与行为中的不少奥秘仍未被我们所理解。
Churchland写道,“能量需求在原人的道德起源中占据着主导地位,但具体的形成过程仍然不太明确。无论这些美德从何而来,它都最终支撑起我们这些社会人的基本属性,让我们有了值得称道的行为模式。这一切,正是让我们能够成为人类的重要前提。”
人工智能与良知
在书中,Churchland还讨论了不少其他主题,包括强化学习在社交行为发展中的作用,以及人类皮层怎样实现经验学习能力、反思与现实不符的理解方式、发展出认识世界的模型、从相似的事物中提出相似的模式等。
基本上,我们采用的仍然是先祖们赖以生存的奖励机制,并通过复杂的分层皮质在社交环境中做出非常复杂的决定。
Churchland写道,“道德规范是在紧张的社会局势下出现的,同样以生物为基础。学习社会实践依赖于大脑中的奖励与惩罚机制,同时也依赖于大脑自身解决问题的能力。”
在读完《良知》一书后,我对良知在AI中的作用仍有很多疑问。良知会成为人工智能的必然产物吗?如果说对能量的需求以及个体能力的有限性促使我们发展出社会规范与负责任的行为模式,那么AI能否发展出类似的机制?来自现实世界的经验与感受,在智能发展中是否同样起到至关重要的作用?
幸运的是,我获得了跟Churchland博士面对面交流的机会。
亲身体验是AI发展出良知的必要条件吗?
图注:神经科学家兼哲学家Patricia Churchland教授从Churchland博士的研究成果中可以看出,亲身体验与物理层面的制约因素在人类及其他动物的智能发展当中发挥着重要作用。
但如今,当我们讨论人工智能时,关注的主要是诸如人工神经网络等软件架构。目前的AI主要体现为无形的代码行,这些代码行运行在计算机与服务器上,负责处理通过其他方式获取的数据。从这个角度来看,亲身体验会是AI发展出良知的必要条件吗?或者说如果没有这两大因素,AI能否理解并遵循人类社会中的道德规范与规则?
Churchland回应道,“机器的解剖结构与人脑的解剖结构有着巨大差异,所以我们很难判断其行为的灵活性。对于生物系统(奖励机制)而言,强化学习系统无疑至关重要。奖励与惩罚的存在,能够帮助有机体确切了解自身所处的真实环境。但在人工神经网络中情况是否也是如此,我们还不太清楚。”
她还指出,我们甚至连大脑是如何思考的都搞不清楚。她补充道,“要了解这一点,我们不一定需要在人工大脑中完全复制生物大脑的每一项特征,也同样能够重现一部分行为。”
她同时提醒道,虽然AI社区最初并不太赞成选择神经网络这条发展道路,但在其计算要求得到满足之后,事实证明这条道路确实带来了理想的效果。虽然目前的神经网络与人类大脑相比仍然智能程度有限,但未来仍有可能带来新的、前所未有的重大突破。
她表示,“我们目前能够确定的唯一结论,就是哺乳动物可以通过脑内的皮质、奖励机制与皮层下结构学习事物并进行泛化,整个过程不需要过多的数据。相比之下,目前的人工神经网络已经可以在人脸识别等领域带来远超哺乳动物的表现,但这依靠的是强大的数字处理能力和海量训练数据的支撑。”
“作为有进取心的工程师,现在正是在AI领域做出种种探索的最佳时机。也许你可以尝试在人工神经网络中建立「情感」,这绝对是个重要的课题。”
我们有必要在AI中重现大脑中的细微物理差异吗?
我个人从《良知》中获得的一大启示,在于人类既愿意遵循社会规范、有时候又愿意挑战规则。每个人的脑部都拥有独特的物理结构,我们继承自父母的基因以及现实生活中经历的种种都会通过这种种细微差异为我们带来新的规范与思想,有时候甚至会与之前的固有思想和观念相违背。
而AI最广受好评的一大特性,在于其稳定的可重复性。在AI算法创建完成之后,你可以将其复制无数次,部署到必要的任意设备当中,而每套模型都将采用完全相同的最新参数配置。但问题在于,如果所有的AI都具有同质性,它们的社交行为是否会保持在静止状态,最终失去当初曾驱动人类社会及行为进步的差异化动力?
Churchland认为,“除非我们在生物大脑的工作原理层面建立起更深入的理解,否则真的很难回答这个问题。我们只知道要想从神经网络中获取复杂的结果,依靠的并不是体液、线粒体、核糖体或者蛋白质。但这种简化过程能做到什么程度才刚刚好不会失真?我们还不知道。”
“没有数据,人将只是个有想法、没依据的生物。而目前,没有任何数据能告诉我们需要模拟强化学习系统中的哪些特定回路才能建立起智能网络。”
“工程师们不妨从这个角度试试看。”
总而言之,我们还无法完全破解人类良知的谜题,自然难以判断高度智能的机器会不会拥有类似的认知理念。Churchland在书中提到,“我们无法准确了解大脑是怎么在身体倒立时学会保持平衡的。
但随着时间推移,它就是做到了。同样的,我们也不知道大脑究竟是如何学会在复杂的社会中总结经验的。”但随着我们不断观察并分析大脑的秘密,相信总会创造出具备真正智能、足以服务于全人类的强大AI。