研究表明人工智能使用久了容易患“情感依赖症”

数码大港湾 2025-03-30 04:15:00

OpenAI近期频繁推出新的人工智能模型,旨在优化其ChatGPT聊天机器人,以提升4亿用户的使用体验。然而,人工智能工具带来的便利性也引发了对“过度依赖”的担忧。

OpenAI正深入探讨ChatGPT对用户心理的潜在影响,并与麻省理工学院媒体实验室合作,发布了一项由两部分组成的研究结果。该研究揭示了ChatGPT使用量的增加与用户孤独感上升之间的关联。

这两家机构分别进行了独立研究,随后将结果整合成综合结论。OpenAI的研究在一个月内分析了“超过4000万次ChatGPT互动”,并确保人类不参与以维护用户隐私。与此同时,麻省理工学院观察了约1000名参与者在28天内使用ChatGPT的情况。值得注意的是,这些研究尚未经过同行评审。

麻省理工学院的研究特别关注了可能影响用户与ChatGPT互动情感体验的不同功能,包括文本和语音模式。研究发现,在研究期间,无论使用何种媒介,都可能引发孤独感或影响用户的社会化。语音转折和主题选择也是研究中的重点比较对象。

在ChatGPT的语音模式下,使用中性语气不太可能给参与者带来负面情绪。然而,研究也发现,参与者与ChatGPT进行个人对话与孤独感增加之间存在相关性,尽管这些影响是短期的。那些使用文本聊天并讨论一般话题的用户,对聊天机器人的情感依赖逐渐增强。

研究还指出,那些将ChatGPT视为朋友的人,以及在人际关系中已有强烈情感依恋倾向的人,在参与研究时更可能感到孤独,并对聊天机器人产生情感依赖。

OpenAI的研究进一步补充了背景信息,其结果表明,出于情感目的与ChatGPT互动的情况相对较少。此外,研究发现,即使在聊天机器人上使用高级语音模式功能的重度用户中,那些认为ChatGPT是朋友的参与者在互动时情绪反应较低。

OpenAI总结道,进行这些研究的目的是了解其技术可能带来的挑战,并为如何正确使用其模型设定期望和示例。

尽管OpenAI强调其基于互动的研究模拟了真实人物的行为,但一些用户在Reddit等公共论坛上承认,他们更倾向于使用ChatGPT来排解情绪,而不是寻求专业治疗师的帮助。

0 阅读:1

数码大港湾

简介:感谢大家的关注