6月30日,一名国外网友在推特上发文称,日本发生过一起骇人听闻的“AI杀人事件”,事件发生时间不明,但这一事件曝光的事件为2017年8月。
据这位知名人士透露,事故发生当日,日本某地的实验室中4个人工智能机器人正在接受科研人员的专项测试时,突然失去控制,随后对实验室内的科学家们展开屠戮,事件共造成29人死亡。
这一消息放出,引发了众人的持续性关注。科技的发展,使得人工智能已经开始进入千家万户,未来可能会更多的参与到我们的日常中来,此时爆发的这一事件,无疑是在考验AI安全性,众人纷纷表示,难道《我,机器人》电影的情节即将上演?谁又将为此事负责呢?
是谣传?还是确有其事事实上,很多人在听闻这一消息后对此事的真实性提出了疑问。为了探明事件本身的真相,我们找到这则消息的最初发源帖子。
据了解,日本AI杀害科学家事件播放最早是来源于2017年8月上一名网友所散发的消息。通过浏览我们了解到这名来自美国的女性,名为Linda Moulton Howe,现年已经80岁。
作为一名知名的推特主,她主攻的方向是UFO和外星人,坚称外星人是真实存在的,并且已经造访过地球,同地球上生物有过数次的密切接触。
例如此前所爆出的美国某农场的养殖牛神秘失踪,优质种马被残忍杀害,并分解剖尸等,均和外星人有关。她甚至大胆断言,美国的高层已经同外星人有过数次交易和合作,只是并未对外公开承认而已。
这些言论均带有一定的偏激性和阴谋论的味道,但并不妨碍其成为了有名的推特博主,成功了收获了一众粉丝,利用粉丝们效应,这位老太太频繁的穿梭在美国各个大洲,开展的巡回演讲。
而本次“AI袭击科学家最终导致29人毙命”的消息,正是她在2017年的8月的某次演说中所提出的。
在演讲中,Linda本人言辞犀利,直截了当的说明了人工智能的危害性,为了验证这一观点,她将此事曝光,同时表示消息来源真实可靠,是一位前海军陆战队好友透露。
由于当日属于一次公开演讲,因此有部分的媒体记者进入了现场。其中一位记者在听闻Linda提出的这一事件后,随即提问这位前海军陆战队队员姓名时候,老太太表示因为此事涉及机密,因此不便于透露对方真实姓名。
而后记者朋友追问关于这位前陆战队成员的相关信息,如基地,服役情况等,老太太均不明所以。
这让现场一部分人对这一事件的真实性产生怀疑,事后当事人将这一事件PO上网路,又为老太太的推特频道增加了几百万的流量,事件持续发酵。
看到这里,对于这位宣称有着内部资料的老太太所指出的“日本AI杀人事件”的真假,我们只能仁者见仁。但AI真的能杀人吗?
历史上发生过AI杀人事件吗?AI作为当代科学的产物,正逐步走进我们的生活中,渗透我们生活的方方面面。然而人们对于AI的研究不足一个世纪,对于其危害性我们仍有待进一步的研究和考察,但是历史上确实发生过AI撒谎人事件。
虽然事件的发生并没有Linda女士说的那么神乎其神,但其可怕的程度仍然值得我们的深思。
2020年3月,彼时利比亚战场上两方军队正打的火热,此时政府军方针对对方据点,决定启用一架土耳其产的自杀型无人机。
无人机的使用本意是为了减少士兵伤害,然而谁也没有想到的是,当使用者将无人机调整为完全自动的模式时,直接开枪射杀了一名士兵。
随后,事件曝光,《新科学家》杂志收入了这篇报导,并表示这是人类历史上第一次有明文记录的“AI杀人事件”。
为什么这次事件,会让《新科学家》报如此重视?这是因为此前无论是任何一个国家产的无人机,均是根据指令行事,在指令未下达命令前,无人机不会做出任何杀人的动作。
但伴随人们对AI的技术的不断提升,AI已经能力已经开始超越我们的掌控,它摆脱了指令的控制,开始学习如何杀人。换言之,这已经不是一台单纯的无人机,而是彻彻底底的杀人武器。
AI杀人,谁该为此负责?由于,AI的研究对于世界多数国家而言,仍然属于前沿领域的研究。因此,国际上对于这一方面的立法处于空白阶段。
那么,发生AI杀人事件,谁又该为此事负责呢?
对于这个问题,我们需要了解法律设立的本源。在人类文明的发展过程中,法律的出现和升级,其目的都是为了统治者统治人民所服务的,其规范的更多的是人的行为。
但对于AI而言,从物理学的本质上,其不过是一群人造物体组成的结果,并不列入法律中所规定的实施对象的范畴中。
因此,当发生AI杀人事件时候,我们考虑的更多是生产AI的人,对此事应当承担的责任。
而矛盾点就在此刻爆发了,生产商对于AI负有生产和保证质量的责任,但是AI的失控和使用者有着极大的联系。
我们无法排除使用者在使用过程中,蓄意引导,通过AI达到自己的犯罪的目的,这是生产商在生产过程中所无法避免。
但如果使用者正确使用的前提下,爆发了AI伤人事件,此时生产商需要对此承担责任。
根据数据调查显示,目前全球AI的犯错率均维持在一个较低的水平,但我们不排除特的有些人不幸的成为少数人中的一名。
为了进一步的规劝AI生产商的行为,尽可能的减少类似事件的发生。2018年在瑞典斯德哥尔摩举办的国际人工智能联合会议上,马斯克等国际知名的AI开创者发起联合倡议,宣誓不参与军事中致命武器的研发,保证AI不会用于战争中。
但令人担忧的是,AI所带来的强大助力,让各国的军方眼红,不少国家正私下进行各类AI武器的研究和试验。
AI究竟是潘多拉魔盒还是人类的福星,或许答案只有在未来的某一刻我们才会知道。
但需要明确的是,伴随着AI研究的不断深入,相关立法也会进一步的完善,我们终将迎来AI造福我们人类的那一天。
茶话而已!但我认为所谓“机器人三原则”是错误的,应该是“缺陷原则”!即不能出现“完美的”AI,它们只能做某一方面的事情,而且必须分到细小的技能上去!相比人类他们是残缺的,这样才能永远受人类控制![得瑟]