5月21日,媒体称,OpenAI中专注于研究人工智能安全的团队已经全部解散,或者加入公司内的其他研究小组,这是OpenAI在短期内迎来的又一项人事巨变。
5月14日,OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)宣布离职,几小时后,超级对齐团队负责人杨·莱克(Jan Leike)也宣布离职。消息称,在两位安全团队的核心负责人离开之后,剩余成员对公司CEO山姆·奥特曼(Sam Altman)的领导失去信心。
莱克在离开时称,他之所以离开OpenAI团队,主要是出于对OpenAI优先事项的担忧,他认为,目前的OpenAI过度重视产品研发,而忽视了人工智能安全的考量。莱克在社交平台上表达了自己的不满,他认为,OpenAI目前的领导层在选择核心优先事项时是错误的,他们应该根据人工通用智能(AGI)的发展,强调AI的安全性和就绪性,而不是不顾后果地推动这项技术。
据了解,OpenAI的人工智能安全团队于2023年7月成立,一直在为出现比创造者更聪明、更强大的高级人工智能做准备。苏茨克维作为OpenAI元老,被任命为这个团队的负责人。OpenAI在团队成立之初给予了大量支持,一度为其投入整个公司近20%的算力资源。
但是,在苏茨克维和莱克接连离开OpenAI后,OpenAI选择解散人工智能安全团队,并将其职能整合到组织内的其他研究项目中。
据称,人工智能安全团队的解散是去年11月山姆·阿尔特曼(Sam Altman)离职风暴的余波。2023年底,阿尔特曼曾被OpenAI董事会解雇。据外媒报道称,导火索是几名研究人员致信警告称一项强大的AI(人工智能)发现可能威胁到人类。不过在700多名员工威胁辞职以及微软公司等多方压力下,阿尔特曼很快便重返OpenAI担任CEO,并组建了新董事会。
据消息人士透露,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)曾告诉员工,一封关于Q*(发音为Q-Star)AI取得突破的信件促使董事会采取了解雇行动。OpenAI在Q*上取得的进展,让部分公司内部人士相信,这可能是他们找到“超级智能(即AGI)”的突破。OpenAI将AGI定义为“比人类更聪明的AI系统”。
从事后解密来看,苏茨克维正是阿尔特曼出走OpenAI的幕后推手,而本次OpenAI解散人工智能安全团队,实在是颇有几分清算味道。