AI这么用,真的太坏了!好莱坞着火和“小孩被埋图”都是AI合成?

科技放映说 2025-01-13 13:55:01

天灾面前,很多人都会产生恻隐之心,同情他们的遭遇,这是我们爱心的表现。然而,总是有一些人,为了流量,为了利益,去造假,去利用我们的爱心,丰满他们的腰包,这种人太坏了。这两天,一张美国洛杉矶好莱坞着火和西藏日喀则“小孩被埋”的图片被疯狂刷屏,然而如今证实,这两张图片都是AI合成的。

第一张造假的图片就是好莱坞的标志牌下大火弥漫,而这张图片已经被证实是AI合成的,并且图片下面还打上了“Grok AI”的水印,这个“Grok AI”其实就是马斯克旗下公司xAI开发的人工智能工具。不少国内自媒体信以为真,疯狂转发。

而另一张图片更加牵动了无数国人的心,图片显示西藏日喀则的一名小男孩在地震中被掩埋,出于同情,不少国人被骗,纷纷表达自己的担心和关爱。然而,这其实是原作者AI创作的,最早于2024年11月18日上传到了网络平台。

天灾人祸面前,有同情心是很正常的事情,但总有些不分青红皂白的媒体或自媒体,随便弄张图片,就想搞个大新闻,其实质无非是为了流量,为了吸粉,为了利益罢了。而这无疑是伤害了普通人的爱心,在下次天灾人祸面前,很多人不禁要问,这到底是真是假?

AI的发展,其本质是为了提高生产力,如今被人用来造谣生事,真的让人担心。如果有一天,随便一个人都能拿着我的照片,合成一张车祸、疾病的照片,发给我的父母,然后进行诈骗,真的是让人防不胜防呀。

AI被用来这么用,真的太坏了。假消息满天飞,无疑会阻碍西藏最需要帮助的普通人发声渠道,让最需要帮助的人得不到帮助。我认为,对于滥用AI进行虚假造谣的人,就应该严格处罚,不然长此以往下去,AI合成图片,迟早会成为所有人痛恨的存在,让AI合成成为阻碍社会和谐的发展的罪魁祸首。

0 阅读:0

科技放映说

简介:感谢大家的关注