俄媒 :中国专家认为阿西莫夫的机器人三定律已经不再适用! 战斗机器人显然违反了第一定律,因此需要新的规则。 7月11日塔斯社刊文。 使用世界上已经在开发的人形战斗机器人可能会引起道德问题,艾萨克·阿西莫夫提出的机器人三定律已经不再适用于他们。 这是中国专家在中国人民解放军报纸《周报》上发表的看法。 袁毅、马艺、岳世光等专家表示: “军用人形机器人是迄今为止最具人形的武器,如果大规模和标准地使用,将不可避免地导致法律指控和道德谴责。” 这篇文章引用了美国科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出的机器人三定律。 这意味着机器人不能伤害人类,必须服从人类的所有命令,并照顾自己的安全,除非这违反了第一条规则。 作者强调,战斗机器人显然违反了第一定律,因此需要新的规则。 “在这方面,军用类人机器人至少要做到三件事:服从人,不修改依赖人的程序,不在用户不受限制的情况下实施暴力,尊重人,严格区分人,不任意摧毁人。”中国专家说。 在分析人形机器人的作战应用能力时,中国专家提出了五个主要方案。 第一,在地面战斗中替换或帮助人们。 “具有接近人类的综合作战能力的类人战斗机器人,可以取代步兵在城市和野外与敌人作战,这可以大大减少人员伤亡。” 第二种情况是,用坦克、步兵战车和战斗机等中小型装备取代人。使用人形机器人作为“设备控制设备”可以减少人员伤亡。 第三,类人机器人可以参与轰炸机、战略和战术导弹、舰艇和其他需要多人维护的设备的使用。 第四,这类部队可以代替军人执行复杂的后勤和后勤支援任务,例如担任医务人员、技术维修人员和其他专业人员,“逐步减少军队中劳动密集型职位”。 最后,在高风险地区,如核、生物和化学污染区,在极端高温或低温条件下,以及在深海、太空和地球内部,战斗类人机器人可以取代人类。
评论列表