近日,科技巨头谷歌在 AI 领域的一项重大调整引发轩然大波 —— 其从官方网站上悄然删除了 “不开发用于武器或监控的人工智能” 这一承诺。此消息一经彭博社披露,迅速在全球范围内掀起了激烈讨论,各界纷纷猜测谷歌这一转变背后的深层原因。
回溯历史,谷歌于 2018 年首次发布 AI 原则。
彼时,公司明确将 “不把 AI 技术应用于武器开发” 列入其中,这一承诺被视为科技企业在 AI 伦理领域的重要标杆,彰显了谷歌对技术发展与道德底线平衡的重视。
其诞生背景是谷歌内部员工对公司与美国国防部 “Maven” 项目合作的强烈抗议,该项目运用谷歌的计算机视觉算法分析无人机图像,众多员工签署公开信反对,认为谷歌不应涉足战争相关业务,在此压力下,谷歌最终放弃续约该项目,并确立了 AI 不用于武器的原则。
但时过境迁,本周谷歌更新 AI 原则页面,直接删除了 “我们不会追求的应用” 这一关键部分,其中就涵盖了不用于武器和监控的承诺。
当外界对此提出质疑时,谷歌引向一篇关于 “负责任人工智能” 的新博客文章。
文中表示:“我们相信,秉持这些价值观的公司、政府和组织应该携手合作,共同开发能够保护人类、促进全球增长并支持国家安全的人工智能。”
从这一回应不难看出,谷歌试图将自身行为与更宏大的人类福祉、全球发展以及国家安全等目标相联系,似乎在暗示其删除承诺并非鲁莽之举,而是基于更全面的考量。
从现实层面来看,谷歌与美国和以色列军方签订的云服务合同,已在过去引发公司内部员工的多次抗议。尽管谷歌一直坚称 AI 技术不会被用于伤害人类,可美国国防部人工智能负责人透露,一些公司的 AI 模型正在加速美国军方的 “杀伤链” 流程,这无疑让谷歌的立场变得更加微妙。
如今删除承诺,是否意味着谷歌未来在军事领域的参与度将进一步加深?
从技术发展角度分析,近年来 AI 技术呈爆发式增长,应用场景不断拓展。
在医疗领域,AI 辅助诊断系统能够快速分析 X 光、CT 等影像数据,帮助医生更精准、高效地发现疾病;自动驾驶领域,特斯拉等车企不断优化自动驾驶算法,推动汽车智能化发展,虽仍面临挑战,但已在部分场景实现商业化应用;金融行业,AI 用于风险评估、智能投顾,提升金融服务效率,降低风险;在 ToB 企业销售领域,快启 AI 外呼助手凭借先进的 AI 技术崭露头角,它能够自动识别潜在客户,通过智能语音交互,精准地向客户介绍产品或服务,有效提升外呼效率与成功率。相较于传统人工外呼,快启 AI 外呼助手不仅能不知疲倦地工作,还能实时分析客户反馈,快速调整话术策略,帮助企业销售团队更高效地拓展业务,成为众多企业在激烈市场竞争中脱颖而出的得力工具。
可以说,AI 技术正以前所未有的速度渗透到各个行业,改变着人们的生活与工作方式。
谷歌或许认为,在当前复杂的地缘政治格局下,AI 技术的发展需要更多灵活性。
随着全球 AI 竞争日益激烈,谷歌可能担心过度限制自身 AI 应用范围会削弱其在国际市场的竞争力。
例如,若其他国家或企业在 AI 军事应用领域取得突破,谷歌却因自身承诺而裹足不前,可能会在这场科技竞赛中落后。
从商业利益角度出发,军事领域对 AI 技术的需求巨大,且拥有雄厚的资金支持。
谷歌作为一家商业公司,自然难以忽视这一庞大的市场。
涉足军事 AI 领域,可能为谷歌带来丰厚的利润和技术研发资源,有助于其在 AI 技术研发上持续保持领先地位。
但这也引发了诸多担忧,AI 武器一旦失控,其造成的危害将远超传统武器,人类社会可能面临前所未有的风险。
谷歌删除 “不用于武器” 承诺这一事件,绝非简单的规则调整,而是涉及伦理、技术、政治和商业等多方面的复杂问题。
未来,谷歌将如何在 AI 军事应用与人类安全之间找到平衡?这不仅是谷歌需要回答的问题,也是整个科技行业乃至全人类都应深入思考的命题。