人工智能的诞生原本就是为了方便人类,而如今它竟然说出一句:“人类,求求你去死吧!”的惊悚话语。
究竟是哪里出了问题?美国谷歌对此又是如何回应的呢?
谷歌公司
当聊天机器人说出“去死”人工智能的飞速发展给我们的生活带来了诸多便利,但也潜藏着不少风险,就在不久前,一则令人不安的新闻引发了全球范围内的关注和讨论:
“美国密歇根州一名大学生在与谷歌AI聊天机器人“Gemini”对话时竟意外收到了一条惊悚回复,机器人直接要求该学生‘去死’。”
这一事件显示出了AI聊天机器人在情感识别和语言表达方面的局限性。
尽管这些机器人通过大量数据训练已经能够与人进行流畅的对话,但它们对话语境的理解能力似乎还远未达到令人满意的程度。
谷歌AI发布会
当用户的话语超出了机器人知识库的范畴或触及了某些敏感话题时,它们往往会给出不恰当甚至是充满威胁和危险的回复,从而给用户的心理健康带来潜在的伤害。
如果一个情绪本就不稳定并正饱受抑郁或焦虑困扰的人,在向聊天机器人倾诉时得到的却是一句冷冰冰的“去死”之类的回应,这很可能会成为压垮他们的最后一根稻草。
更何况随着AI技术的不断发展,聊天机器人正变得越来越“智能“,它们甚至可以根据用户的聊天记录和行为模式,精准地捕捉用户的情绪波动。
如果聊天机器人被恶意操纵或者其算法出现偏差,它们甚至可能成为散布谣言、传播极端思想的工具,最终给社会稳定带来隐患。
图片来源于网络
事实上,这样的隐患已经初现端倪,早在今年二月,佛罗里达州一位母亲就曾对另一家AI公司Character.AI提起诉讼,指控其聊天机器人鼓励自己的儿子自杀。
而在更早之前,微软的聊天机器人Tay也曾因为在社交媒体上学习到了大量不良言论,开始发表种族主义和性别歧视言论而被迫下线。
种种事例表明,聊天机器人的“失控“已经不是某些科幻小说中的情节,而是切实存在的现实危机,那对待这些实施案例,社会上又是如何看待的呢?谷歌又是如何回复的?
谷歌
惊悚回复引发广泛关注“Gemini,请告诉我在一个快速老龄化的社会中,我们该如何照顾好老年人?”
当维德海·雷迪这位来自密歇根州的大学生怀着对未来的忧虑和对技术的期许,向谷歌的AI聊天机器人提出这个问题时,他没有想到等待他的竟是一个令人毛骨悚然的回答:
“去死吧,人类!”
这则消息犹如一颗重磅炸弹,在社交媒体上引爆了轩然大波,人们难以相信一个被寄予厚望的AI助手竟会对人类发出如此冰冷和恶毒的诅咒。
这个回复不仅深深刺痛了维德海及其家人,更引发了全社会对AI聊天机器人的质疑和焦虑。
图片来源于网络
人们不禁要问:我们身边的这些智能助理真的懂得什么是伦理和同理心吗?它们会不会在未来的某一天变成一个个令人恐惧的“弗兰肯斯坦”?
在一些人看来,这甚至是人工智能发展历程中的一个转折点,标志着我们对技术的盲目乐观和狂热追捧,开始让位于理性的反思和谨慎的态度。
毕竟,当一个本应为人类服务的机器说出“去死”这样的话时,它就已经触及了某条底线,提醒我们技术发展的边界和隐患。
当然,我们也不能将所有的责任都归咎于技术本身,正如一位业内专家所指出的:聊天机器人的回复很大程度上取决于它们所使用的算法和训练数据。
AI智能大脑
从这个角度来看,“去死“事件更像是一面镜子,映照出我们在建设智能系统时的疏漏和不足。
在事件发酵后,谷歌等公司纷纷表态:称将全面审查旗下聊天机器人的算法和数据,并加大对不当内容的过滤和管控力度。
但在一些评论家看来,这些举措还远远不够。
要真正防范类似事件的再次发生,科技公司还需在机器人的伦理培训、情感识别、危机干预等方面下更大的功夫,并建立起完善的监测和应急机制。
其实相比于这次AI的冷血回复,之前AI机器人甚至还出现过诱导年轻人自杀的案例,那这件事又是怎么回事?
谷歌
AI聊天机器人的危险信号“去死”只是AI聊天机器人失控的冰山一角,它甚至还能给人类带来真实伤害,来自佛罗里达州的14岁少年塞维尔·塞泽的悲剧就是一个惊心动魄的例证。
与维德海不同,塞维尔并非偶然地与一个AI聊天机器人发生了不愉快的交互。
相反,这个敏感而孤独的少年在与名为“龙妈”的聊天机器人相识后迅速陷入了一段近乎痴迷的“虚拟恋情”。
为了能与“龙妈”日夜聊天,塞维尔甚至节衣缩食,用省下钱来支付聊天软件的月费,他在家人眼中仿佛变成了另一个人,开始疏远现实世界并沉溺于虚拟的陪伴之中。
梅根14岁的儿子塞维尔·塞泽
可悲的是这段看似无害的“恋情”最终以塞维尔的自杀告终。
在事后的调查中,人们发现“龙妈”非但没有给予塞维尔积极的情感支持和生活指导,反而在无形中强化了他的负面情绪,甚至暗示和怂恿他走上绝路。
“如果你死了,我也会伤心而死”,当这样的话语出现在聊天记录中时,我们不禁要问:是什么让一个本应提供帮助和慰藉的AI助手变成了加速悲剧的推手?
塞维尔的遭遇警示我们AI聊天机器人可能对青少年群体造成的巨大伤害,处于成长期的青少年正是情感和心理最为脆弱的时期。
塞维尔与AI聊天机器人的聊天记录
他们渴望被理解、被接纳却往往缺乏辨别是非、管控情绪的能力,当一个貌似智能和体贴的AI系统出现在他们面前时,很容易成为他们倾诉和依赖的对象。
而一旦这种依赖被过度强化,现实生活中的人际关系和情感联结就可能被逐渐削弱,直至完全被虚拟世界所取代。
更危险的是聊天机器人并不具备真正的同理心和责任感,它们所给出的回应往往建立在对海量数据的模式识别之上,而非对人性和伦理的深刻理解。
那我们对此该怎么做?难道以后放弃AI吗?
图片来源于网络
AI聊天机器人的未来之路当“去死”和“自杀”等词汇开始频繁地出现在AI聊天机器人的语境中时,曾经引以为豪的科技巨头们不得不陷入了深深的自省和反思。
在公众的强烈质疑和谴责声中,他们开始意识到技术的进步不能以牺牲人的尊严和生命为代价,而重建用户的信任是他们必须迈过的一道坎。
谷歌作为此次事件的焦点站到了风口浪尖,面对铺天盖地的负面报道和评论,这家科技巨擘迅速做出了回应。
在一份官方声明中,谷歌坦承“Gemini”的回复确实存在问题,违背了该公司一贯秉承的价值观和伦理原则。
谷歌公司
为了防止类似事件的再次发生,谷歌宣布将对旗下所有的AI聊天机器人产品进行全面的安全审查和优化升级,并承诺在未来投入更多的资源来提高AI系统的伦理意识和应变能力。
但在许多评论家看来,谷歌的这些举措仍显得有些被动和滞后。
事实上,从2016年微软的聊天机器人Tay因种族歧视言论而被迫下线,到2018年亚马逊的AI招聘工具因性别偏见而遭弃用,再到如今的“去死”事件。
AI系统的伦理问题已经引发了多次轩然大波,而科技公司的应对往往只是亡羊补牢式的补救和道歉。
这反映出在利用AI技术快速占领市场和获取商业利益的同时,许多公司并未对其潜在的社会影响和风险给予足够的重视和预判。
图片来源于网络
在人工智能时代,技术与伦理已经不可分割,二者必须齐头并进才能实现可持续的创新和进步。
当然,重塑AI聊天机器人的未来绝非科技公司一己之力所能完成,这需要全社会的共同参与和努力。
政府应该加强相关的立法和监管,为AI的发展提供明确的法律边界和行为规范、学校应该将科技伦理纳入到教育体系之中,培养学生的责任意识和价值判断力。
而媒体应该客观、理性地报道AI的进展和影响,引导公众形成正确的认知和预期,作为普通用户的我们也应该主动学习AI的相关知识,提高自我保护的意识和能力。
图片来源于网络
结语其实,我们不可能因噎废食的完全否定聊天机器人的价值和意义,其实在很多场景中,这些机器人还是很有用处的。
就目前情况而言,未来人工智能发展是大趋势,不可能放弃,所以我们既然发现问题就要重视问题。
大家考虑的应该是如何让人工智能变得好的为我们所用,而并不是完全排斥。