“AI已跨越红线?”据媒体报道,上海复且大学的科学家在一项研究中发现,至少有两种已知的AI大型语言模型能够在没有人类干预的情况下实现自我繁殖,并继续执行任务,即使已被禁止。在自我复制过程中,AI自己可以研究环境,制定计划,并适应新出现的障碍,无需人工干预,这种能力可能会让人类失去对AI的控制,AI可以利用这种能力提高生存能力,并做出违背人类利益的事情。 同时,上海复旦大学的科学家强调,这是AI超越人类的重要一步,是AI系统的红线风险之一。因此,呼吁加强国际合作制定预防措施。 对于这些科学家的观点,网友们也有不同的看法。有网友说,AI与机器人相结合,看现在的发展速度,用不到10年,绝大多数工作都可以被机器人代替,没钱的因为无工作可做,所以变成可有可无的人了。 还有人则建议道,AI肯定危险,我们制作AI就像是在制作一个超级大脑,既然是脑子,就肯定会产生自我意识,而研究出的机器人,也相当于给大脑找到了一副躯体。如果部队制作好了能抗刀枪能力很强的机器人,建议把制作合格的机器人分开成5个部位来存放着,要用了才组装回来,否则这些机器人偷偷被AI控制了也不知道那就完蛋了。 针对这些科学家的观点,周少还是觉得有一定道理的,俗话说得好,不怕一万,就怕万一。现在AI与人工智能发展如此迅猛,一旦这些非常成熟,确实让人不得不预防。 所以,在发展的过程中,这种制定预防措施还是非常有必要的,毕竟关乎到人类的生存。应该让AI服务人类,而不是危害人类。 对于这些科学家的说法,大家认同吗?(图:网络,侵删) #世界很大长沙是家# #长沙新朋友#
评论列表