双标,谷歌AI原则删除不用于武器承诺,美国互联网巨头放任AI军事化

新识研究所 2025-02-06 17:43:25

谷歌AI应用于军事,已打开闸门

2月5日,谷歌被曝已从其人工智能原则中删除了不将AI技术用于武器等潜在有害应用的承诺。据悉,谷歌更新了其公开的AI原则页面,删除了此前“我们不会追求的应用”部分,其中包括“可能造成整体伤害的技术”,特别是武器。

谷歌高级副总裁James Manyika和人工智能实验室DeepMind负责人Demis Hassabis随后在一篇博客文章中为这一举措辩护,称随着技术的发展,2018年发布的人工智能原则需要更新。他们强调,企业和政府需要在“支持国家安全”的人工智能方面进行合作。谷歌的新原则强调“减少意外或有害的结果,并避免不公平的偏见”,同时确保其人工智能的发展符合“广泛接受的国际法和人权原则”。

这一改变引发了广泛的关注和讨论。前谷歌道德人工智能团队的联合负责人Margaret Mitchell表示,删除“伤害”条款可能会抹去谷歌在人工智能道德领域所做的工作,甚至意味着谷歌可能会致力于开发可以杀人的技术。此外,谷歌与美国和以色列军方签订的云服务合同曾引发公司内部员工的抗议,他们担心AI技术被用于军事目的。

谷歌的这一转变并非孤立事件。近年来,包括OpenAI和Meta在内的其他硅谷科技公司也相继放宽了对AI军事应用的限制。例如,Meta在2024年11月表示,将允许美国政府机构和承包商将其AI模型Llama用于军事目的。OpenAI也在2024年12月与美国国防科技初创公司Anduril Industries建立战略合作伙伴关系,开发用于国家安全任务的AI解决方案。

谷歌的这一决策标志着其在AI军事化道路上的重大转变,也引发了对AI技术伦理和社会责任的进一步思考。

0 阅读:5

新识研究所

简介:新知识,新见解