社交媒体公司已经推出了基于人工智能的聊天机器人,并将通过各种类型的人工智能角色来扩展他们的产品。虽然虚拟伴侣提供了心理上的好处,但它们也引发了对依赖问题和数据安全潜在风险的担忧。
Image by Cybernews. 图片由 Cybernews 提供
人们出于各种原因转向聊天机器人:有些人想尝试一下,有些人在寻找友谊,有些人想学习新技能,甚至找到一段浪漫的关系。
人类与人工智能建立浪漫关系的愿景在十多年前上映的标志性电影《她》中被描绘出来。在其中,Joaquin Phoenix饰演的一个名叫西奥多 Theodore 的家伙爱上了 Scarlett Johansson 配音的名为萨曼莎 Samantha 的操作系统。
2013 年看似遥远的未来现在正随着人工智能的进步而逐渐接近现实。人类和聊天机器人之间的关系虽然不一定是浪漫的,但对越来越多的人来说正变得越来越普遍。
人工智能伴侣的心理益处数以百万计的人已经尝试了由 Luka 公司创建的 Replika 或 Character.ai 等服务,后者提供与基于 AI 的角色的对话。
据路透社报道,Replika 于 2017 年推出,到 2023 年就拥有 200 万用户,其中 250,000 名用户为该公司的服务付费。同时,根据 Demandsage 的估计,Character.ai 拥有超过 2000 万用户。
最近的人工智能热潮使更多类似人类的聊天机器人得以创建。虽然这些聊天机器人与 Samantha 的能力相去甚远,但它们正在快速发展。
在提供虚拟伴侣的平台上,通常以免费增值模式运行,用户可以创建自己的 AI 聊天机器人,确定他们的性格、爱好和兴趣,并与他们互动,就好像他们是真人一样。
有些,如 Character.ai,具有不同的个性,使用户能够练习一门新语言,学习一项新技能,或与虚拟心理学家交谈。
根据今年发表在《自然》杂志上的一项研究,拥有聊天机器人作为伴侣可以帮助年轻人缓解孤独和抑郁。
有趣的是,一项针对 1006 名学生中的 30 名学生的调查显示,在 Replika 与虚拟朋友交谈可以阻止他们自杀。
研究人员表示,一项针对基于 GPT-3 的心理健康智能手机应用程序的大规模分析发现,当参与者获得健康提示或其他资源信息时,它对抑郁症的控制条件有积极影响。
然而,在某些情况下,它们的使用可以忽略不计,或者实际上可能促成了自杀意念。此外,一些以机器学习为卖点的应用程序实际上使用脚本。
基于人工智能的名人最大的社交网络最近实施了聊天机器人,并很快扩展了他们的服务。
去年,Meta 推出了基于几十个人物的 AI 聊天机器人,包括 Snoop Dogg、Kendall Jenner 和 Naomi Osaka。
Meta 首席执行官 Mark Zuckerberg 去年在接受 The Verge 采访时详细介绍了该公司将基于人工智能的聊天机器人纳入其中的计划。
Mark Zuckerberg 说:“我们正在试验一堆不同的人工智能,以满足人们的不同兴趣,无论是对不同类型的运动还是时尚感兴趣。
据他介绍,小型企业将越来越多地使用聊天机器人来帮助和销售他们的产品,而创作者将使用人工智能角色,可能创建自己的人工智能版本,与他们的社区建立联系。
据报道,谷歌还在构建人工智能驱动的聊天机器人,这些聊天机器人将基于 Gemini 的大型语言模型之一。
据 The Information 报道,该公司正在与有影响力的人和名人进行谈判,以使用他们的图像作为头像,并且还计划允许用户根据提示创建自己的聊天机器人。
基于AI角色的社交网络基于人工智能的角色是一个名为 Butterflies 的新社交网络背后的主要思想。几周前,前 Snapchat 工程师 Vu Tran 在 iOS 和 Android 应用程序上正式推出了一个名为 Butterflies 的新社交网络,旨在将 AI 聊天机器人和人类结合起来。
该应用程序允许用户创建“Butterflies”——人工智能生成的角色。
根据 Tran 的说法,未来,更多的人类将与 AI 交谈,它们最终将融入我们的日常生活。拥有 AI 朋友将是司空见惯的。
“我们只是在努力建立这个未来,”他告诉 Cybernews。“问题是,用户已经对 Butterflies AI 和其他 AI 聊天平台感兴趣并花费了大量时间。然而,这些人往往不是 Twitter 上最直言不讳的人。
根据 Tran 的说法,像 Meta 这样的公司推出 AI 聊天机器人验证了 Butterflies 的愿景。但是,它们也会带来竞争。
“Meta 可以复制一些东西,这些东西适用于他们的平台。还有其他功能,当它们复制时,将不起作用。我认为 Instagram 和 Facebook 在很大程度上被打上了人类与人类交谈的平台的烙印。我认为摆脱这个“品牌”对他们来说实际上是一项非常困难的任务。船越大,转弯就越大,“Tran 解释道。
依赖关系问题虽然人工智能聊天机器人可能会带来好处,但它们也会带来风险,例如人们与现实世界脱节。
当被问及这种副作用时,Tran 将其与 20 年前在互联网论坛、IRC 和游戏室结交朋友的年轻人数量进行了比较。
“在那段时间里,同样的问题也被提出来,例如,有人担心花更多的时间上网会导致与现实世界更加脱节,”他说。“总而言之,我不认为人工智能朋友会完全取代人类朋友,当然,就像在线朋友不会取代IRL(现实生活中)朋友一样,但它们有可能为生活增加一个新的积极维度。
然而,在某些情况下,人们会依赖他们的虚拟朋友或浪漫伴侣。
一个很好的例子发生在几年前,当时 Replika 的创始人通过推出不允许与成人或色情内容进行对话的新过滤器,悄悄地禁用了 NSFW 色情短信功能。
结果,用户开始抱怨。有些人甚至说,在他们无法以同样的方式与基于人工智能的伴侣互动后,他们感到沮丧或自杀。
在投诉后,该公司恢复了一些用户的色情聊天。
虽然目前 Replika 的大多数用户都没有色情内容,但还有许多其他平台,如 CandyAI 或 GPT Girlfriend,提供明确的色情聊天机器人。
道德和法律问题人工智能聊天机器人,尤其是那些充当虚拟朋友或浪漫伴侣的聊天机器人,会带来重大的网络安全和隐私风险,Cyber Law Firm 的创始合伙人 Star Kashman 说。
据她介绍,由于人工智能技术相对较新,这些网络上的安全措施尚未完全开发。这留下了许多潜在的漏洞,可供黑客利用。
“这些人工智能聊天机器人可以采用心理技术来获得用户的信任,创造人类互动的错觉。这可能导致个人或敏感信息的泄露。薄弱的网络安全和人工智能交互的亲密性质相结合,使这些平台变得危险,因为它们可能会无意中使用户面临身份盗用、勒索、黑客攻击和其他恶意活动,“她说。
Kashman 警告说,虽然创建聊天机器人和基于人工智能的角色的公司声称通过加密和其他安全措施来保护用户数据,但新兴技术公司的可信度仍然值得怀疑。
随着社交媒体公司实施人工智能角色,她预计它们的普及率将在未来五年内增加。
“这种扩张确实引发了严重的道德和法律问题,特别是关于数据隐私以及这些工具操纵和剥削用户的潜力。
数据可能不受保护GPTZero(一种旨在检测人工智能编写内容的工具)的首席执行官 Edward Tian 表示,在使用人工智能聊天机器人时,最好假设您共享的任何数据都可能无法完全受到保护。
“如果说我们在过去十年中从网络安全中学到了什么,那就是几乎任何东西都是可以被黑客入侵的。如果你想了解人工智能聊天机器人是如何具体保护你的数据的,请查看网站,看看他们是否披露了他们是如何做到的,或者他们是否为你提供了作为用户的选项,让你知道你希望如何使用你的数据,“他说。
Edward Tian 认为,人工智能聊天机器人的受欢迎程度可能由法规决定;更少的法规可能会导致更广泛的使用。
根据 Trevolution Group 数据科学主管 Ilia Badeev 的说法,AI 角色将在未来五年内变得司空见惯。“人工智能人格将成为新的现实和新常态。将有 AI 名人、AI 角色和其他 AI 实体。人工智能发展非常迅速,机器人每个月都在变得更好。反向趋势没有先决条件。
ChatGPT 是第一个获得病毒式流行的“AI 角色”。其他“同事”正在路上,而且会有很多,专家总结道。
原文:https://cybernews.com/editorial/ai-chatbots-privacy-concerns/