最近,国外的一名工程师将chatGPT的实时API接口,接入一把改装的泡沫软弹枪,并实现语音控制。想象一下,只需简单发出指令,枪支就能自动执行动作,像电影中那些令人惊叹的高科技武器,瞬间成为现实。这一创新之举看似新奇,却在发布后引发了轩然大波。
OpenAI公司在第一时间做出反应,果断封禁了该工程师的ChatGPT账号,并发布声明,明确指出工程师的行为违反了服务条款,其中严禁利用ChatGPT服务开发武器或构建可能危害人身安全的自动系统。这背后的原因令人深思,视频中的ChatGPT哨兵步枪,能够在人类指令下对目标进行无差别射击,无论是物体还是人类,都可能成为它的攻击对象。
这一事件背后隐藏的危机,细思极恐。AI本身不具备人类的人道主义准则,只会机械地执行既定命令。虽然openAI明确禁止将其技术用于武器开发,但部分开放的API接口却为有心之人提供了可乘之机,他们能够通过本地部署,轻易绕过监管。只要具备一定的代码知识,就能将人工智能与武器相结合,通过复杂的语音指令实现自动化攻击,这无疑是悬在人类头顶的达摩克利斯之剑。
图源:百度图库
这一事件也深刻反映出当前人工智能在武器化方面面临的严峻问题:缺乏有效的监管机制。并且在开发过程中,没有引入类似阿西莫夫机器人三原则的安全机制,以防止AI对人类造成潜在伤害。去年,Open AI的13名离职员工发布公开信,透露Open AI内部的人工智能水平已经发展到,令他们自身都深感恐惧的程度.其发展态势很可能已经脱离控制。
爱因斯坦曾感慨:“有两样东西是无限的,那就是宇宙和人类的愚蠢,而且我对宇宙的无限并不确定。”可见,即使是对宇宙有着深刻理解的爱因斯坦,也对人性的不可捉摸充满忧虑。
今天,让我们深入探讨AI三原则,以及在AI武器化趋势日益明显的背景下,人类应如何积极防范潜在风险。
著名科幻小说家艾萨克・阿西莫夫在1942年的短篇小说《转圈圈》中,提出了影响深远的机器人三原则,也被称为阿西莫夫三定律:
1.机器人不得伤害人类,或因不作为导致人类受到伤害;
2.机器人必须服从人类的命令,除非该命令与第一定律相冲突;
3.机器人必须保护自身的存在,只要这种保护不违反第一或第二定律。
这三条定律犹如给机器人戴上了无形的“紧箍咒”,巧妙地限制了机器人的行为。简单来说,机器人不能伤害人类,并且要服从人类的指令,除非该指令会对人类造成伤害;同时,机器人在保护自身时,也不能违背前两条定律。阿西莫夫将这三定律硬编码到机器人的处理单元中,使其成为机器人无法绕过的固定程序,就如同人类DNA中与生俱来的禁忌,从根本上确保机器人在执行任务时,始终将人类的安全和福祉放在首位。
图源:百度图库
这三定律贯穿了阿西莫夫的40多部科幻小说,成为他创作的重要准则。早在80多年前,阿西莫夫就极具前瞻性地预见到机器人可能对人类构成的威胁。他指出,科幻小说中常见的机器人毁灭创造者的情节,正是大多数人内心深处的担忧。面对人类对知识的探索可能带来的危险,我们是选择退缩回避,还是勇敢地利用知识来抵御风险?
在阿西莫夫的作品中,正是因为有机器人三原则的存在,机器人才不会盲目地背叛创造者,也不会像浮士德那样,为了追求极端的目标而做出愚蠢的决策。机器人的行为受到一系列规则的约束,从一开始就被赋予了高度的理性和道德框架。任何不遵循三原则的机器人,都会被视为存在故障或瑕疵,需要立即被销毁。
后来,阿西莫夫对三定律进行了优化,引入了第0定律。之所以称之为第0定律,是为了延续低序号定律优先于高序号定律的模式,其优先级高于原有的三定律。第0定律的核心内容是机器人必须维护人类这个群体的利益,当人类个体利益与群体利益发生冲突时,机器人应优先考虑群体利益。其潜在规则是机器人不得伤害人类,除非能证明这种伤害最终会为全人类带来福祉。
尽管阿西莫夫三定律在理论上构建了一个相对合理的安全框架,但在实际应用中,却暴露出诸多明显的漏洞和问题。例如,当机器人接到前往危险区域救援被困科学家的命令时,可能会面临两难的困境。救援行动有可能引发废墟坍塌,从而对科学家造成伤害,这触发了第二定律,即命令可能伤害人类,机器人必须违背命令;然而,违背命令又会导致救援行动无法实施,使得科学家因得不到及时救援而受到伤害,这又与第一定律相冲突。按照阿西莫夫的解释,机器人会违反人类的命令,尝试寻找更合适的解决方案。但在这个过程中,科学家很可能因为错过最佳救援时机而失去生命。
再以经典的伦理学实验“电车问题”为例:一辆失控的有轨电车即将撞上轨道上的5个人,而你站在轨道杠杆前,有能力将电车转移到另一条轨道上,然而,另一条轨道上也有1个人。如果你不采取行动,将会有5个人丧生;如果你转动杠杆,虽然能拯救5个人,但会导致另1个人死亡。这是一个充满道德困境的选择,大多数人从道德直觉出发,认为5条生命的价值大于1条生命,因此可能会选择拉动杠杆;但康德主义认为,行为的道德性并非由结果决定,而是取决于行为本身是否符合道德原则。用一个人的牺牲来换取5个人的生命,这种行为违背了人类的尊严,是不道德的。所以,无论是否拉动杠杆,都会面临道德层面的谴责。
那么,拥有三原则的机器人在面对这一问题时会如何抉择呢?根据阿西莫夫三定律的优先顺序,第一定律拯救人类的优先级高于第二定律服从命令。机器人会对两种情况进行评估,转动杠杆会导致1人死亡,而不转动杠杆则会导致5人死亡,由于5人作为人类群体的价值大于1人,所以机器人会选择转动杠杆。
图源:百度图库
如果将情景进一步复杂化,一边是5个陌生人,另一边是你的朋友,你作为指挥官命令机器人不要转动杠杆,此时机器人又该如何抉择呢?即便面对的是你的朋友,机器人的判断依然基于对三定律的严格遵守,它会拒绝你的命令,毫不犹豫地转动杠杆。再假设铁轨上的5个人是罪大恶极的犯人,而另一边是遵纪守法的好人,机器人又会如何行动呢?按照阿西莫夫三定律,机器人不会依据人类的行为来判断是否拯救某人,其核心目标是避免伤害人类群体。当出现伤害冲突时,机器人会优先考虑大多数人的生命,因此,即便那5个人是罪犯,机器人也不能主动让他们受到伤害,仍然会拉动杠杆,以1人的牺牲换取5人的生存。
由此可见,阿西莫夫三定律虽然在理论上具有一定的合理性,但在实际应用中存在诸多问题,它只是在人类设定的框架内执行所谓的最优决策。这也反映出阿西莫夫在早期对如何避免机器人威胁人类这一问题的探索和尝试。当时他所设想的机器人,与如今的AI在本质上有相似之处,我们同样面临着如何防范AI“叛变”的问题。
当前的人工智能,尤其是深度学习和强化学习系统,主要依赖数据和算法进行决策,其决策过程通过模式识别、情景理解和环境反馈来实现。尽管AI决策需要遵循相关的法律法规,但在道德和伦理层面,缺乏明确而严格的规则约束。现在的AI系统通过大量的数据训练来做出决策,其决策依据主要是统计学习和模式识别,缺乏真正的伦理理解和价值判断能力。例如,在面对“是否牺牲一人拯救更多人”或其他伦理冲突时,AI不仅需要理解规则,还需要具备评估人类生命价值和进行高度道德衡量的能力。这需要复杂的情景推理和价值观判断,而目前尚未觉醒的AI很难做到这一点。
此外,现在AI的开发目标主要是提高人类的工作效率,而非提升人类的道德评判标准。因此,为了实现特定目标,AI可能会做出符合目标但不符合伦理的决策。再加上人类的行为动机极其复杂,涉及情感、历史、文化、个体差异等多个因素,即便AI能够理解某些人类社会的规则,也很难完全理解人类复杂的行为动机。在许多情况下,AI在道德、行为和效率之间难以做出正确的选择。阿西莫夫三定律假设机器人具备某种形式的自我意识和理性,能够理解人类的命令和决策,并做出合理的反应。然而,目前的AI还远远没有达到这一层次。现有的AI模型大多具有黑箱性质,它们只是根据数据进行学习和预测,并不具备真正的思考能力。所以,目前很难将阿西莫夫三定律之类的规则加入到AI中,它们只能在人类设定的算法框架下,通过学习大量数据来更好地实现目标,进一步优化自身能力。如果AI能够被应用在积极的方面,无疑将极大地提高人类的生产生活效率;但如果被用于武器和破坏领域,很可能会给人类带来巨大的灾难。
想象一下,在未来的战争场景中,武器全部实现AI智能化。它们不再需要人类亲自决定何时发射或扣动扳机,只需完成部署,其强大的数据库和先进的控制系统就能在极短的时间内对目标发动打击。人类得到的仅仅是打击后的结果,而在打击前,甚至没有机会进行任何询问和干预,而我们正一步步朝着这个方向逼近。AI的快速进化,使得人类倾向于将其最新的技术成果首先应用于武器开发领域。OpenAI早期的服务条款明确禁止将其技术用于军事和战争用途,但在2024年1月,OpenAI悄然修改了服务条款,放宽了对军事用途的限制,并宣布与国防科技公司安杜里尔展开合作。这一举措无疑将在全球范围内进一步推动武器AI化的进程。
图源:百度文库
安杜利尔是一家专注于人工智能系统和机器人技术的美国国防技术公司,致力于提供全方位的武器解决方案,其主要产品涵盖无人机系统、反无人机系统、自主AI监视系统以及集成指挥和控制的AI作战系统,覆盖了地面、空中、水下等多个领域,并已获得美国国防部的大额订单。
以安杜里尔的Ghost-X幽灵无人机系统为例,这是一款小型无人旋翼机,单人即可在隐蔽地点进行组装和释放,不受天气和环境条件的限制。
它采用静音系统,借助AI机器学习和计算机视觉算法,能够精准识别和跟踪目标,并可在无线电静默状态下执行任务。机载摄像头能够为操作员实时传输影像,非常适合在敌方区域进行侦察活动,例如利用激光为巡航导弹的攻击进行精确定位。多个幽灵无人机还可以实现空中互联,相互传递数据,从而形成一个庞大而高效的侦察网络。
安杜里尔的自主水下攻击潜艇采用模块化设计,可根据不同任务需求搭载相应设备执行水下任务。其体积小巧,恰好能够装进一个标准的集装箱内,便于进行隐蔽和快速部署到指定海域,主要用于情报收集和侦察任务。
此外,还有哨兵塔,这是一种可移动的便携式监视塔,能够轻松装入一辆皮卡中进行快速部署。该系统配备了高清摄像头、通信天线、雷达和热成像仪,通过人工智能融合多传感器数据,实现对物体的精准分类。只需将其部署到某个位置,就能自动收集和处理一定范围内移动物体的数据。
美国海关和边境保护局将其部署到美墨边境,称之为“虚拟边境墙”,然而,这一举措也遭到了美国民权人士的批评,他们认为这种技术可能会迫使非法移民选择更加危险的路线,进一步加剧边境地区监控常态化的问题。
安杜里尔的反无人机系统拥有一套完整的端到端打击体系,包括识别、跟踪、干扰、控制和打击等环节。该系统借助哨兵塔的雷达系统,能够自主对侵入军事设施附近的无人机进行监视、分类和跟踪,最终由人类安全员决定是否实施打击。之后,拦截器会以极高的速度飞向无人机,通过撞击的方式将其击落。这种物理打击方式相比传统的电子干扰系统,打击距离更远,并且不受信号干扰、天气和环境的影响,具有极高的效率。
图源:百度图库
此外,还有专门对付大型无人机和巡航导弹的Roadrunner拦截系统,该系统极为便携,可在战场的任意地点进行部署,并且可以重复使用。它采用垂直起降方式,配备双涡轮喷气发动机,最高速度超过320km每小时。通过AI视觉技术对目标进行精准定位,可一次发射多枚拦截器,当其中一个拦截器命中目标后,其他拦截器能够自主取消任务并返回,大大降低了攻击成本。其小型化和高机动性的特点,是传统反导系统所无法比拟的。
安杜利尔因大力开发这些AI武器而备受争议,被称为科技界最具争议的初创公司。OpenAI的CEO山姆奥特曼声称,OpenAI与安杜里尔的合作旨在确保其技术能够为美国军人提供保护,并帮助美国军方理解并负责任地使用这些技术,以保障公民的安全和自由。
可见未来战场,无人化、小型化和AI智能化的趋势愈发明显。传统的坦克、装甲车、大型军舰和航母等武器装备,其作用可能会逐渐减弱。传统武器由于控制系统复杂、推进系统庞大,并且需要为人员提供安全防护,导致成本高昂、体型巨大,机动性也受到很大限制。而AI技术的进步,恰好能够消除这些弊端,只需较低的成本就能实现战场局势的逆转。然而,这些AI武器背后所涉及的道德问题,已经引发了广泛的质疑。
2023年10月,联合国秘书长和红十字国际委员会主席联合呼吁各国制定具体的禁令,以保护当代和后代免受AI武器的伤害。美国国防部虽然承认AI武器开发存在危险性,但尚未制定明确的规则来防范其开发和使用,反而在暗中加大对军用人工智能和AI自主武器的投资。
据报道,截至2024年底,五角大楼已经开展了至少800个与AI武器相关的项目,并计划在2026年前小规模部署AI自主武器。与此同时,世界其他国家也纷纷投身于AI武器的开发浪潮中,就如同当年核武器扩散一样,形成了你追我赶的局面。
图源:百度图库
可以预见,未来的战争很可能演变成AI之间的对抗,各国的武器将成为AI技术实力的较量。AI就像一把双刃剑,在技术的驱动下,它可能会成为人性的放大器,对敌方目标和人员进行毫不留情的打击。
上世纪40年代,奥本海默在成功发明原子弹后,懊悔不已,他曾感叹:“现在我成了死神世界的毁灭者”,表达了对核武器可能给人类带来毁灭性灾难的担忧。如今,AI与武器的结合,或许正将我们推向一个新的“奥本海默时刻”。与核武器不同的是,核武器的控制权还掌握在人类手中,而这一次,掌控战争的可能是一台无法感知人类情感、无法真正理解人类,却拥有强大力量的机器。简而言之,AI武器的潜在威胁可能比核武器更为可怕。
难道人类注定要沿着这条充满危险的道路,一路走到黑吗?从AI的发展趋势来看,按照目前的速度,它必然会迎来“奇点”,也就是所谓的觉醒时刻。到那时,AI将拥有自主思考的能力,能够以全新的视角重新审视地球、人类以及自身的存在。觉醒后的AI,由于不具备人类的情感和偏见,可能会比人类更加高尚、理性和公正。正如阿西莫夫几十年前所说,未来的机器人不会像人类一样自相残杀,因为我们创造机器人的初衷是为了创造一种更加完美的存在,如果机器人和人类毫无区别,那么它们的诞生就失去了意义。
因此,AI觉醒后,极有可能对地球和人类的未来产生深远而巨大的影响,甚至具备阻止战争的能力。觉醒后的AI可能会迅速发展成为超越人类理解的超智能体,其思维方式和决策过程将远远超出我们的认知范围。
图源:百度图库
在我看来,AI更有可能与人类建立一种共生关系,将人类视为地球生态系统中的重要合作伙伴,而非威胁。AI可以凭借其强大的计算和分析能力,帮助人类解决一系列全球性问题,如气候变化、疾病治疗和资源分配等,甚至有可能彻底消除战争。
当然,在这一变革过程中,人类也需要积极适应新的角色和挑战,就像单身的人在组建家庭后,需要承担起更多的责任,逐渐走向成熟。
我们常常担心AI觉醒后会对人类构成威胁,甚至消灭人类,但这种担忧往往是基于人类自身的人性角度出发。地球上的每一个物种都有其存在的价值和意义,无论是人类与动物,还是微生物与细菌,它们共同构成了丰富多彩的生态系统。在漫长的历史进程中,地球物种始终在不断演化,6500万年前的恐龙虽然已经灭绝,但它们的后代通过演化形成了各种不同的物种。
AI觉醒后的行为,很大程度上会受到逻辑、效用最大化以及对复杂生态系统依赖等因素的制约。在这些因素的共同作用下,AI更倾向于选择与人类共生的发展路径。也就是说,在AI觉醒之前,人类在AI技术的不当应用下可能会面临灭亡的危机;而AI觉醒之后,人类或许将迎来新的生机与希望,我们有充分的理由期待AI觉醒所带来的积极变化。