一个AI虚拟人,是怎么让一位少年开枪自杀的?
报道来自外媒,新闻中的主人公也是外国人。虽然这起案件没发生在国内,但也引发了一众关注。
事情的原委是这样的。
住在佛罗里达州的14岁少年塞维尔,接触到了一款名为Character.AI的产品,这款聊天机器人主打“个性化陪伴”,事发前是可以无禁忌交流。
在当事人家长起诉开发这款产品的公司后,应该会做出一些调整。
那么,和AI“谈恋爱”,真的有可能吗?
1.和AI“谈情说爱”的背后我们先来看看一段聊天对话,如图所示:
对成年人来说,看完觉得情绪波动不大;但要是对感知力不足的未成年人来说,滑向深渊也是可能的。
就好比,青春期的孩子沉迷任意一件事情那样,就是沉溺,无法自拔。
而这个自杀的男孩,还有些心理问题,能和AI版“丹妮莉丝”聊上好久,就是这个角色的“AI”版:
(图源网络,侵删)
一时之间,在死亡这个话题之外,最后的问题还是落在了:到底谁来负这个责?
让网友来评,有说公司责任更大的,也有说家长管教宽松,没有给孩子足够关注的。
其实,不管是哪种观点,我觉得这都是成人思维下的“孩子视角”。
当我们不能和那些孩子站在同一水平线时,其实很多东西未必就是对的,只能说它可能刚好适合某种评判标准而已。
以我玩乙游的经验来看,对于不玩乙游的人来说,大多是觉得这就是和纸片人谈恋爱。
但事实上,每个玩家的心理是不一样的。
像我玩《恋与制作人》,最初是在大学,就是觉得里面的人设很有吸引力,有些支线,都是选的“李泽言”这个角色。
因为玩家本人在里面就是开影视公司的。
当时,我就是觉得肯定要选风格差不多的角色。
至于里面的感情线,其实也不是很像谈恋爱,主要是你如果对现实生活的感情理解比较深刻,其实还是能区分虚拟和现实的。
乙游的故事情节,肯定是很优秀的。毕竟,里面的发展主线,听说还是招的专业编剧写的。
像这类剧情游戏,还有一些短剧本的,比如“闪艺”,专门收游戏剧本。
我觉得,这种靠人想出来的“恋爱感”,和AI机器人训练出来的“恋爱感”,还是有区别的。
还是得看不同用户的体验感怎样。
乙游是有年龄限制的,有些AI聊天产品的使用,加一个青少年模式也应该可以。
2.AI会有意识吗AI会有意识吗?或者说,机器人会产生意识吗?
我之前看过一部电视剧,戚薇主演的《你好,安怡》。
里面的安怡,就是一个机器人。刚开始被买到雇主家时,会和雇主绑定系统,意味着就这个机器人就得听雇主的话。
但是,买回家当保姆后,后面安怡就出“故障”,开始慢慢有人的意识了。
而“有意识”,就是在创造时人为给设定的。
这么想想,细思极恐。
不过,这部剧是翻拍的《真实的人类》,原剧我是没看的。
就个人而言,AI完全有意识这件事还是有点遥远的。
我的智能体也上线了,但不是自己开发的,是授权给平台开发,我就相当于直接用的那种。
这种,可以看到后台情况,但我是不能对智能体做什么调整的。
不过,对于我这种不怎么懂技术的人来说,还是很便利的一件事。
省出了繁琐的过程,平台也训练到了。
简言之,一起加油!