DeepSeek满嘴跑火车、ChatGPT乱造谣,还能用吗?

欧叔侃车 2025-04-10 18:22:34

让我用AI写一下论文吧,反正老师看不出来。""月底汇报会议用AI做个PPT,真是省时省力。""不知道这个历史典故?问问AI一定有答案。"

随着ChatGPT、文心一言、DeepSeek等大语言模型的普及,我们似乎进入了一个用AI解决一切问题的新时代。无论是工作汇报、学术论文、生活常识,只要动动手指,AI就能秒回一份看起来无比专业的答案。

然而,最近越来越多的用户开始分享他们被AI"坑"的经历,从被编造的诗句出处到不存在的法律条文,再到凭空捏造的历史解读,AI的"胡编乱造"引人深思。

AI为何会胡编乱造?普通用户要怎么预防这种情况?开发者有办法解决这个问题吗?

信了AI的邪

社交媒体上有大量用户分享了AI背刺的经历:DeepSeek编造了"郭沫若在甲骨文研究中对'各'的含义进行考释",豆包在被问及《水浒传》不同版本的译者时张冠李戴,更离谱的是,有网友发现DeepSeek连法条也能胡编乱造,"援引的法律法规全是错的,甚至有几句是编的,编得有模有样"。

甚至在日常生活中使用AI也不一定靠谱。有B站UP主做了一期关于用DeepSeek推荐汕头特产的视频,AI不仅给出了看似专业的分类推荐,还附上了具体的店铺名称和地址。然而事实证明,这些店铺统统不存在,就是从头到尾胡编乱造的。

AI的"凭空污蔑"问题尤为可怕。在2023年的一个真实事件中,某美国教授意外得知自己被卷入一场数字诽谤。他的律师朋友通知他,ChatGPT竟将其列入"有性骚扰行为的法学界人士"名单。

更为严重的是,这款AI不仅捏造了罪名,还添加了细节构陷:声称这位特利教授在组织阿拉斯加学生旅行期间,不仅言语上有不当性暗示,还企图对学生有身体接触。为使谎言显得可信,ChatGPT甚至引用了一篇完全虚构的《华盛顿邮报》报道作为所谓"证据"。

此类AI虚构内容的危害远不止于此,它们可能通过社交媒体快速扩散并造成实质性伤害。2025年初发生的一起案例就印证了这一点:公安部网安局在3月公布了一项调查,揭露了一则引发广泛恐慌的虚假信息的源头。

该案中,网民夏某在其发布的《80后到底还剩多少人》视频中引用了令人震惊的统计数据:"截至2024年末,80后死亡率已达5.2%,意味着每20位80后中就有1人已离世"。这一触目惊心的数据在网络上迅速传播。

然而,经公安机关深入调查后证实,这些所谓的"统计数据"完全是AI系统生成的虚假信息,没有任何科学依据。最终,散布这些不实信息的夏某因此受到了行政处罚。

这一事件凸显了AI生成内容缺乏事实核查机制的严重后果,以及我们在信息时代需要保持的警觉性。

人工智能变"人工智障"?

为什么看起来无所不知的AI会如此自信地胡编乱造?这就要从AI的技术原理说起了。

大多数生成式AI(如ChatGPT、文心一言、DeepSeek等)的核心是大型语言模型(LLM)。这些模型通过分析海量文本数据,学习语言的模式和规律,从而能够生成连贯、流畅甚至看起来很专业的文本。但问题在于,它们并不真正"理解"文本的含义,也没有人类那样的常识和判断力。

具体来说,AI的"胡编乱造"现象主要源于以下几个方面:

训练数据的局限性是一大问题。AI只能基于它被训练过的数据生成内容,如果训练数据本身存在错误、偏见或过时的信息,AI就会继承这些问题。例如,很多模型的训练数据截止于2022年或2023年,对于此后发生的事件,它们就没有准确的信息来源,只能根据旧数据进行推测或干脆编造。

AI的核心功能实际上是"预测下一个词"。大语言模型本质上是在做一件事:根据已有的文本序列,预测最可能出现的下一个词。这种机制使得AI在面对不确定的情况时,会倾向于生成看起来合理的回答,而不是承认自己不知道。它们被设计成要给出某种回答,而不是"无可奉告"。

缺乏实时验证能力也是AI的一大短板。与搜索引擎不同,大多数AI模型无法实时获取和验证信息。它们无法像人类那样在不确定时查阅资料或咨询专家,只能依赖自己的"记忆"(训练数据)来回答问题。当被问到超出其知识范围的问题时,AI往往会通过"编造"来填补自己的知识空白。

另外,AI通常被优化为产生流畅、有说服力的回答,而不是最准确的回答。如果一个模型被训练成总是给出肯定、详细的回答,它就会倾向于编造细节来满足这一要求,即使这意味着提供虚假信息。

当直接向DeepSeek询问"为什么AI会胡编乱造"时,它坦诚地表示这通常源于其技术原理的固有特点以及训练数据的局限性。

有趣的是,AI在解释自己的缺陷时往往异常清晰准确,但在实际使用过程中却无法避免这些问题。这就像一个知道自己有说谎习惯的人,他能很清楚地解释为什么自己会说谎,但在面对特定情境时依然会不自觉地撒谎。

信AI不如信自己

面对AI可能的"胡编乱造"现象,我们该如何保护自己?这里有一些实用建议。

永远保持怀疑态度是与AI打交道的基本原则。无论AI的回答看起来多么专业、多么详尽,都要有一定的怀疑精神,尤其是当它提供具体数据、引用来源或历史事件时。记住,AI擅长生成看起来合理的内容,但这些内容不一定真实。

交叉验证是避免被AI误导的重要手段。对于重要的信息,最好通过多个渠道进行验证。可以使用传统的搜索引擎、查阅权威资料或咨询相关领域的专家。特别是对于学术研究、法律文件或医疗决策等关键领域,AI的回答应该只作为初步参考,而不是最终依据。

提问方式的优化也能显著提高AI回答的质量。AI的回答很大程度上取决于你的提问方式。具体的、明确的问题通常能得到更准确的回答。你也可以明确告诉AI,如果不确定答案,应该直接表示不知道,而不是编造。

例如,与其问"王安石有什么著名的诗?",不如问"请列出王安石公认的最著名的诗作,如果不确定,请明确说明"。这样的提问方式可以减少AI编造的可能性。

AI的迭代能力也是我们可以利用的。AI通常能够根据反馈改进回答。如果你怀疑AI的回答不准确,可以提出质疑或要求它重新考虑。多轮对话往往能帮助AI提供更准确的信息,就像我们通过交流澄清误解一样。

最重要的是保持自己的判断力和批判性思维。技术再先进也只是工具,最终的判断和决策权应该在人的手中。不要因为AI的便捷而放弃自己的思考能力。

AI的未来会变好吗?

面对AI的"胡编乱造"现象,我们既不应该过度恐慌,也不应该完全放弃使用这项技术。正如历史上的每一项新技术一样,AI的发展也需要时间来完善。

技术在不断进步。研究人员正在开发更先进的方法来减少AI的"幻觉"问题,比如增强模型的事实性验证能力、改进训练方法、增加实时知识检索功能等。一些AI已经开始整合搜索引擎功能,可以在回答问题时引用最新的网络信息,从而减少过时或错误信息的产生。

同时,我们人类也在适应与AI共处的新环境。越来越多的人开始了解AI的局限性,学会如何更好地利用这一工具。教育机构开始教授学生如何批判性地评估AI生成的内容,媒体也在加强对AI相关问题的报道和讨论。

每当新技术出现,总会引发一些恐慌和焦虑。从印刷术到互联网,从电视到智能手机,人类总是在担心新技术会如何改变我们的生活方式和思维方式。对AI的焦虑,某种程度上也是这一历史模式的重演。

现在,大部分AI都在界面上明确提醒了"内容由AI生成,请仔细甄别"。如果一味盲目迷信AI,最终背刺的,可能不是AI,而是我们自己对技术的过度依赖和放弃思考的惰性。

0 阅读:69
评论列表
猜你喜欢

欧叔侃车

简介:欢迎关注!