本文将带你走近AI DeepSeek,了解它那些一本正经胡说八道的“趣事”。
小G对AI观点的转变我有一位朋友小G,是个博物馆策展人。
她对历史考据的严谨程度几乎到了偏执的地步。
两年前,ChatGPT开始火了,很多人因为担心职场竞争,对AI产生焦虑,可小G却无所谓,甚至称这类AI为“人工智障”。
她认为这些AI输出的内容既浅薄又荒谬,根本威胁不到她在专业领域的地位。
事情的转折点发生在DeepSeek重新风靡之后。
工作压力大,逢人都喊Deadline的小G,终于也按耐不住,向DeepSeek求助了。
那天,她要为一件历史展品写解说,必须通俗易懂但又准确无误。
于是,小G问DeepSeek:“请从钱庄伙计的视角,讲讲在没有科技设备的年代,在工作中会遇到哪些困难。”
DeepSeek的答案还真让小G眼前一亮,“钱庄工作手记”写得有板有眼,什么“天未亮就要在桐油灯下核对账目”、“用长柄放大镜查验银票边角的暗记纹路”,甚至还冒出了“苏漕平每百两扣二钱五”这种专业细节。
小G兴奋地在微信群里夸赞:“DeepSeek确实启发效果不错,比以前的人工智障强多了!”仅仅五小时后,小G就翻脸了:“好多内容是它瞎编的!
什么钱庄使用的套色密押印章组,根本就没这东西……”
不甘心的小G要求DeepSeek提供参考文献,结果新生成的说明里,真实元素和虚构情节掺杂在一起,参考文献更是子虚乌有,她最终无奈地吐槽:“结果我现在不得不给它写的东西做一轮事实验证,我又不是它导师!”
DeepSeek让人困惑的工作原理其实,不止小G一个人被AI整得哭笑不得。
大家越来越发现,一本正经的AI有时真能瞎编出看似合理的内容。
这种现象,被称作“AI幻觉”。
要弄清楚这种“AI幻觉”,首先要明白AI是怎么“想”的。
许多人大概会以为DeepSeek像是个有庞大数据库的搜索引擎,能够提供精确回答。
但现实并非如此。
生成式AI就像个学语言的小学生,根据语料库的海量数据,预测下一个最合理的词。
DeepSeek所用的“脑袋”叫做Transformer深度学习模型,2017年问世,并成了如今所有厉害AI的基础。
Transformer通过语料库的训练,拆分和编码各类词元(比如“AI”可能被拆为“A”和“I”),加上attention注意力机制,AI会找到哪几种词元“该注意”,从而更流畅、更逻辑地生成文本。
但问题在于,它并不“理解”词元的含义,只是统计了哪些词组合得明显出现得更多。
正如小G遇到的“套色密押印章组”,DeepSeek分析了该词与“钱庄”和“防伪”的频繁关联,加上一些看似合理的词构,就自动生成了子虚乌有的内容。
AI幻觉的原因与表现DeepSeek有时“瞎编”,这其实是所有Transformer模型的共同毛病。
在之前的循环神经网络模型,甚至更早的N-gram模型时期,AI早已能按要求生成看似合理但实际不存在的内容。
为何今天的AI幻觉引发更多关注?
因为Transformer模型生成的内容真的更少出错,但一旦出错也可能把较为精准的上下文混在一起,显得更加可信。
DeepSeek的幻觉率尤为突出。
据测试平台显示,有推理能力的DeepSeek-R1的幻觉率比其V3基础模式高出好几倍,远超行业平均水平。
这也有人因此质疑:难道推理能力越强,幻觉率越高?
其实,不完全是这样。
影响AI幻觉率的因素有很多,包括模型的训练数据、优化目标、架构设计等,并非单单推理能力所决定。
某些推理模型在追求逻辑推理能力时,可能会忽视事实的准确性,从而增加幻觉的出现。
如何与“胡说八道”的AI共处那么,有没有办法让AI不再“胡说八道”呢?
有些人说通过调整AI的“温度”参数,或使用可靠的外部记忆库能减轻幻觉,这些方法确实有帮助,但根本解决不了问题。
因为训练数据本身、用户输入和模型计算都会引入误差。
有趣的是,这些方法在有效降低幻觉时,也同样会限制AI的创造力。
我们希望AI既具备创新能力、又能准确无误,但这两个目标其实有些对立。
最终,我们需要学会与AI的幻觉共处。
不要期望AI能回答所有问题,尤其是那些模糊或误导性问题。
同时,尽量给AI提供准确的信息源,利用其联网功能准确查询资料。
关键还在于保持独立思考。
在熟悉的领域,我们能轻易识别幻觉,但越陌生的领域越易轻信AI。
这时,辨别信息真伪的能力,远比获取信息重要。
结尾想想看,人类的创造力本质上不也是一种“幻觉”吗?
那些灵感,往往也是基于我们积累的知识。
如果这个平行宇宙存在的话,或许真有个钱庄伙计发明了“套色密押印章组”。
正如爱因斯坦所说:“想象力比知识更重要。
”而AI这个有些“胡说八道”的伙伴,或许也在用它独特的方式启发我们,去探索那些看似不可思议的可能性。
与AI共处,不仅是接受它的准确,更是包容它的胡说八道。
毕竟,生活本身也总是带着点胡言乱语的色彩。