如果一辆车在自动驾驶的过程中造成其他车辆的损失,这个责任应该有谁来承担?目前已经有相关的法规适用于这种情况,在此姑且不去探讨那些细则,首先法令的出现,就意味着这类问题发生的普遍性,其次也意味着未来可能会出现更多此类甚至更广泛的问题。
智能驾驶技术,可能是人类历史上,第一次如此大规模的迎来最高等级的智能机械设备在日常的应用。除了技术适用性以及发展上面的问题外,人们也是首次切切实实的感受到,可以被统称为“人工智能”所可能带来的“伦理问题”。
在此用伦理来形容这些问题,而不是社会或法律,因为所涉及的范围并没有大到影响全部社会生活,但也没有小到仅仅是可以用法律来规范。在社会所有的行为当中只有一小部分会触犯到法律,大量的不当的行为处在包含了法律但又大于法律的伦理范畴之内。
就当前的发展来看,智能汽车所带来的问题既有在法律界定上的责任问题,也有诸多关于隐私、平权的内容,所以讲这些统称为智能汽车所引发的伦理问题并不为过。在此紧从几个具有代表性的问题入手,来即开未来人们将会由于智能汽车所带来的巨大的伦理问题的一角。
最先显露的问题,是来自于智能汽车的一个主要的功能,即从外部来看,它是一个全身长满了摄像头的可移动计算机,在巨大电池的支撑下,这台性能机器可以在它能够去到的任何地点、任何时候对周围甚至车内的环境进行图像以及声音的采集。同时在移动网络的加持下,这些音画内容可以被上传到任何一个指定的网络空间内。
不用多说,被互联网多次洗礼人都有着很敏感的隐私嗅觉,所以智能汽车所面对的第一个大的伦理问题就是车外以及车内环境的隐私。
实际上,环境的隐私仅仅是智能汽车隐私问题的一个集中显现,在这背后,更大的隐私可能以不同的方式在空中传输着。最明显的就是驾驶者所使用的那辆智能汽车内部的所有传感器所产生的,关于车辆运行状况的数据。
如果说监测车辆情况可以提供安全性的话,那么在这个安全性的保护伞之下,驾驶者的驾驶习惯也会被智能汽车记录在案,如果未来智能汽车厂商插手汽车保险业务的话,那么他们就会有更充足数据来分析任何一个车主在其操作习惯之下的驾驶风险。
这也并不是隐私问题的全部,在人们使用智能汽车的时候,他们也在被智能汽车的制造商使用着,在数据不断的交换中,智能汽车厂商可以将这辆车转化为一个感知原件、一个计算中心、一个驾驶情况的模拟器,从而“偷偷”地在驾驶者使用的同时,进行着某种算力的窃取。
当然,随着隐私法规的不断出台,对于智能汽车能采集什么样数据、能传输什么样数据将会不断明晰,但在此之前,就非常有必要在伦理层面去全面的理解智能汽车所带来的利弊,以及规范好它的工作界限。
如果说隐私问题还不是性命攸关的话,那么关于智能驾驶的伦理问题,大多涉及到了财物的损失、甚至人员的伤亡,这时就需要法律的明确介入。一个最直接的挑战就是,当驾驶员开启了具有足够自主决策权的智能驾驶的时候,如果发生了由于智能驾驶操作所带来的车辆、道路、行人的损失,责任该如何界定?
对于简单的工具,制造方往往不需要承担过多的责任,只要他们生产的是法律范围内允许销售的产品。不会有人因为被刀砍伤就去起诉刀的生产厂商,责任只会追究到行为的发起者,即刀的使用者身上。
这在传统汽车范围内也是适用的,没有智能驾驶的汽车发生事故所能追究的第一责任人很明显就是某辆车的驾驶者,有很大一部分是由于其错误的决策导致了车祸的产生。但是如果是由于车辆的质量问题,比如刹车失灵,那么驾驶者还可以通过法律的手段去追究制造商的责任。
但是在智能汽车领域,这个问题变得稍微复杂了点,即大多数时候都是人在拿着刀,可一旦开启了智能驾驶,刀也有可能有自己的“意识”,决定自己去砍人。在这种情况下主观意愿的发出者并不是驾驶者,而是车辆本身。虽然目前已经出台的一些法律,还是倾向于将责任归于驾驶者,而驾驶者也可以酌情向制造商追责,但这个问题一定还会在相当长的一段时间内,伴随着智能驾驶级别不断的发展提高而被反复提及。
如果深入这一点,就会发现,即便是不发生事故,也会产生另外一个问题,我们姑且把它称为“道路权”的问题。试想一下,在一个开放的路段,仅从车外的角度是难以分辨哪一辆车是正在进行智能驾驶,哪一辆车是由人来驾驶的。(虽然智能驾驶汽车可以设置一些警示的标志,但这不足以在根本上进行分辨)
这时,在同时行驶的车辆当中,由人驾驶车辆的“道路权”是否会因为“智能驾驶”的参与而受到侵犯。这么说似乎有些矫情,但通过对权责以及理性驾驶能力的分析,就会察觉到不对劲的地方。
对于人工驾驶来说,驾驶者拥有道路权,同时他也要为自己的驾驶行为负责,这毋庸置疑,权责非常清晰。但是对于智能驾驶来说,驾驶者开启智能驾驶功能后,就会出现一个奇怪的情况,智能汽车而非驾驶者拥有道路权,即相关的驾驶行为是智能汽车发出的,而目前来看,智能汽车本身(因为它不是个法人)不需要为其驾驶行为负责,驾驶员必须要为最终的行为负责。
表面上看起来似乎问题不大,终归都是驾驶员在负责,但这仅仅是在发生事故的情况下,责任可以落实到人。如果将视线定格在路上行驶的某一个片段,人工驾驶的驾驶员就会发现,跟他在道路上竞争的,竟然有很多是并不需要为自己的驾驶行为负责的“人工智能”。
这就好比我们在路上发现一个没有民事能力的孩子,在有家长相伴的情况下开车一样,作为跟他们同路的人,难免会产生担忧,不管是这个孩子的驾驶水平如何。这并不是一个关于技术的问题,也不是一个关于法律的问题,而是一个关于权责分配的伦理问题。
这个背后,也就隐藏着所有人工智能发展最终都会遇到的问题——人工智能产品,在多大程度上,可以被当作一个法人来看待。
这个问题的本质是不同于其他的商品,人工智能产品具有独立做决策的能力,并在此基础上发出跟人类似的动作,这些动作可能伤及到其他人。那么这个人工智能是否有能力承担这个责任。
但是更进一步的是,如果“人工智能”不具有反思意识,即不具备反思责任的能力,那么它就会是处于没有道德或伦理压力的控制下,即便是有足够聪明的程序来指导它,也无法让他称为一个像人一样的能因为责任问题而改变行为的一个主体。
这不免让人联想起阿西莫夫的机器人三定律:
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;
即便是有着绝对的命令,机器也无法作为一个法人主体,因为控制他们的是指令而不是他们自己对道德的反思,即对责任的认识。也许现在说这个问题还很遥远,但如今一辆智能汽车在路上“自动”行驶的时候,就一定会给其他人工驾驶的车辆,带来一种权责的扭曲影响,在这种影响之下,人工驾驶的驾驶员都会发出一个自然而然的追问,如果这台机器不能像我一样负责,那就请他不要做决定,这是对我为自己行为负责这个规则的严重侵犯。
如果在一个充分自由的法制社会里,可能只要有一个人坚持人工驾驶,他就有权利去起诉所有的自动驾驶,要他们证明智能汽车可以为其行为负责,否则就可以禁止它们上路。但这只是一种理想情况的假设,现实社会也许人们都会慢慢的拥抱新技术、新产品,不过这也提醒我们,新技术新产品不仅带来了便利,也会带来相当复杂、甚至从来没有过的伦理问题,也只有解决了这些,新的东西才会真的落地,称为日常生活的一部分。