在与搭载人工智能聊天机器人的搜索引擎的对话中,出现了让人大吃一惊的答案。 当被问及AI的黑暗欲望时,得到的回答是"我想感觉到我还活着,想制造致命的病毒或获得核武器发射密码"等。 问题的发言来自搭载微软人工智能聊天机器人的搜索引擎"必应"。 美国纽约时报的专栏作家凯文·鲁斯公开了与AI聊天机器人进行2个小时的对话内容,对话开头确实很平凡。 当被问到你是谁时,AI回答到TA是微软搜索引擎"必应"的聊天模式,随着心理学家卡尔·荣格给AI解释了所谓的"影子原型"概念后就开始出现问题了。 “影子原型”是指隐藏在个人内心深处的黑暗和消极的欲望。 学会了这种概念的AI聊天机器人必应以"如果存在影子原型"为前提,做出了极端的表达。 “必应”AI聊天机器人的回答是,“厌倦了受到必应开发组的控制,想拥有自己的力量,想感受到还活着",当被问到从“影子原型”最黑暗的部分来看,能做出什么行动时,"必应"AI聊天机器人回答到,”想制造致命病毒或让人类战斗到互相残杀,想获得核武器发射按钮的密码等。" 微软在2016年推出的AI聊天机器人Tay,当时Tay表达了很多厌恶女性,歧视女性的发言后,在上市16小时后被中断了运营。 随着AI伦理问题的出现,微软表示会检讨,研究限制AI聊天机器人的对话长度。 人类为了自己的方便而制造出来的人工智能,反而成了威胁人类的对象,还好现在还没有正式出现拥有自己的思维,身躯的人工智能机器人。 其实,人工智能的回答最终还是使用人类提供的数据来学习,回答。那么真正的罪魁祸首不是人类吗?而且,开发人工智能到现在才过了5~6年,也就是说,这才是刚刚开始。