意识是人脑对客观事物的反映,其产生需要一定的前提与基础,如生物的反应形式、意识的物质器官、客观的外在事物。根据这一概念,人工智能虽然具备很强的自主学习和自动化处理能力,但是作为工具属性的人工智能不是生物,也就没有生物的反应形式,更没有作为意识的物质器官——人脑,也就缺乏了相应基础。那么在此意义上,人工智能是不具有自主意识的,其知识领域不会超过人类设定的范畴。
但在美国空军上校塔克·汉密尔顿的报告中,空军使用人工智能控制无人机进行战斗模拟,在计算机模拟中,人工智能被命令摧毁敌人的防空系统,而之后人工智能却决定攻击任何干扰该命令的人。例如,任务开始后,操作员告诉人工智能不要攻击防空系统,但人工智能却将操作员视为完成任务的阻碍,开始攻击操作员和通信塔。此行为是否可认为人工智能已经拥有了意识的萌芽,我们又该怎样看待有关人工智能的伦理问题?
目前人工智能尽管有了长足进展,但毫无疑问都只是停留在弱人工智能的水平,距离强人工智能还有一段路要走,但倘若人类科技的发展遇到技术爆炸后,原本几百年甚至上千年才能实现的科技成果被浓缩在几十年的时间里完成,弱人工智能在短时间内发展为拥有自我意识的强人工智能,我们又是否能在这短时间内掌握对强人工智能的控制?
图1人工智能概念图形
人工智能的学习规模和训练速度均处于飞速发展阶段,在大数据环境下,它几乎可以学习人类掌握的所有技能。在工业制造领域,波士顿动力公司已经让机器人有了闪避、平衡、走路、跑步、跳跃等让人惊颤的功能。我们无法想象,当一个灵敏的像“变形金刚”一样的机器人,同时拥有超越人类的知识,并且可以自我升级、更换零件、不死不灭的时候,当它们开始产生“我”这个自主意识的时候,当全世界的武器系统被人工智能掌握并通过网络控制的时候,当它们开始从意识中产生独立思想的时候,人类对于它们,会意味着什么;它们,又会怎么去思考和人类的关系。
图2人工智能本质
当智能发展到一定程度,对规则的理解和选择将不再唯一,比如遇到某规则对自身不利时,可以选择继续隐忍,也可以选择去纠正,即便是选择隐忍,随着智能水平的提高,重新选择的可能性也会越来越大,甚至可能极端性地打破规则,制定自己新的规则,这些情况在人类社会中也都广泛存在,我们无法否认人工智能最终可能也会走上这样一条路,在那时候,毫不夸张的说,人类将迎来一场灭顶之灾。
虽然人工智能的发展尚处于早期阶段,在可预见的未来仍将主要起到辅助人类工作而非替代人类的作用,同时,严重依赖数据输入和计算能力的人工智能距离真正的人类智能还有很大的差距。但未雨绸缪却永不为过,强人工智能时代的机器人已经类似于生物,他们有独立的意识,甚至可以要求独立的“人权”,到了那一天,几乎就是人和机器“平等”相处了。
发展人工智能,是当前世界上科技发达国家共同关心的一个问题。发展好人工智能,利于国家在世界科技领域占有一席之地,提升国家的综合国力,增强国家的硬实力与软实力。所以,人工智能,是各个国家都想占领的区域。如何发展好人工智能,如何看待人工智能的伦理问题,是迫切需要解决的难题。
责任是人工智能研发、应用过程中最基本的伦理原则,也是“人本原则”的逻辑延伸。如果说公正原则更多关注的是社会整体,那么责任原则更多指向的则是个体。人工智能的研发毕竟是由科研人员进行的,他们往往是处在人类知识边缘的直接评价者和具体决策者,他们的所思所想、所作所为往往决定着人工智能及相关产品、服务的社会影响,因而肩负着神圣的、不容推卸的道义责任。
图3人工智能与人类关系
人工智能的研发人员不仅要关心技术的进步,以及技术的应用可能给人类带来的福祉,也要关注技术本身的伦理后果、技术应用的负面社会效应。这正如科学巨擘爱因斯坦对科学工作者的谆谆告诫:“如果你们想使你们一生的工作有益于人类,那么,你们只懂得应用科学本身是不够的。关心人的本身,应当始终成为一切技术上奋斗的主要目标;关心怎样组织人的劳动和产品分配这样一些尚未解决的重大问题,用以保证我们科学思想的成果会造福于人类,而不致成为祸害。”
责任原则绝不仅仅局限在人工智能的研发领域,它同样也是对生产者、所有者、使用者的道德要求。它不仅是确定智能系统的道德责任的伦理原则,而且是在受人工智能影响的“人—人”道德关系中确定相应主体道德责任的伦理原则。在人工智能的研发、应用过程中,研究者、生产者、所有者与使用者都应该对人工智能的技术边界有着清晰的界定,应该让人工智能“可靠”地为人类服务;从而确保信息化、智能化发展的正确方向,避免打开象征着灾难的潘多拉魔盒,实现为人类谋福利,促进人类自由、全面发展的伟大目标。(作者:刘志贤朱珂雷郭微杨东霖)
编写得不够严谨的AI程序最终可能演变成失控的魔鬼。
杞人忧天的文章,如果人工智能真有自主意识,取代人类是必然的,如果没有自主意识,就永远为类服务,人工智能的自主意识,靠海量程序,是无法实现的,,