疯狂四天,九集反转,2023震惊全球科技圈的硅谷“史诗级权斗”大戏,在持续一周后落下帷幕。
11月16日,著名AI企业、ChatGPT母公司OpenAI联合创始人、CEO、董事会成员Sam Altman还代表公司在亚太经合组织会议上发表重要演讲。谁曾想隔天,他就收到了公司的开除信。更抓马的是,11月22日,他又被OpenAI官方证实官复原职。
从“莫名驱逐”到“王者归来”,Altman——这位15岁考入斯坦福大学、29岁担任Y Combinator总裁、34岁出任OpenAI CEO、38岁被《时代》周刊评为“全球AI领导者”的ChatGPT之父,就此历经了职业生涯难以言表的120小时。
昔日矛盾曝光
Q* 猜想浮出水面
对于这极速120小时翻天覆地的“政变”,11月25日,路透社给出解释与猜想,称在Altman被董事会开除4天前,几名研究人员向董事会发布了内部信,表明OpenAI有重大发现—— Q*(Q-Star)模型。
据悉,Q-Star显示出接近人类的高级推理能力。对比以ChatGPT-4为代表的生成式人工智能,Q-Star跳出了“通过预测下一个单词来进行写作和语言翻译,给出符合人类预期答案” 的传统逻辑,拥有无需依赖人类反馈的自主学习能力。这种高度智能化及高度自主性,使其具备超越人类智慧,且不受人类控制的进化潜力。当然,与之相伴的安全治理风险,亦不容小觑。
换言之,Q-Star的出现,再一次将我们带入究极议题,即:当可以自我进化的AI加速叩开人类智治的大门,人工智能革命是否会真的走向失控?对此又该如何应对?
此次OpenAI内部人事“巨震”,似乎已或多或少对这个问题表露出自己的倾向。毕竟,外界有传言称:Q-Star可能造成的安全治理风险,是董事会罢免Altman的关键导火索。圈内也有言论直指“OpenAI权利游戏的根源在于内部加速主义与安全主义的线路之争”。
这里,所谓加速主义,即对AGI的商业化进展抱有极大热情,准备跑步进入第四次工业革命,缔造下一个科技巨头的派别主张。它萌芽于20世纪初未来主义运动,如今在硅谷拥有不少追捧者,包括YC掌门人Garry Tan、A16Z创始人Marc Anderessen等。在OpenAI内部,Altman是加速主义头号代表。
安全主义,则指对AGI充满警惕,担忧AI会对人类生存造成风险,坚持用谨慎的态度开发AI的派别主张。著名计算机科学家Scott Aaroson曾在个人博客总结,在极端安全主义者眼里“人类的生存或毁灭取决于未来一两年内少数精英工程师的行动;从看起来无害到在几小时或几年内密谋杀死所有人类,可能只需要一个门槛……”在OpenAI内部,首席科学家伊利亚·苏特斯科夫(Ilya Sutskever)是安全主义拥护者。
今夏,Ilya还和研究员Jan Leike在OpenAI内成立全新研究团队Superalignment,计划未来4年投入20%算力,旨在解决超智能AI对齐问题,也就是要求AI系统的目标要始终和人类的价值观与利益相对齐,避免AI自主意识失控。
没有人想失控
加速主义也在权衡有效性
值得一提的是,本次从Ilya引爆“政变”,代表董事会通知Altman“被解雇”;到事件完结,Ilya发帖忏悔:“我对参与董事会的行动深表遗憾,我从未想过要伤害 OpenAI”;再到这两位创始成员各自代表的派别主张,可以很明显地看出,关于AI发展向左还是向右,秉持“加速”还是“安全”,分歧一直都在。
但毋庸置疑的是,科技向前,没有人希望一切脱离人类掌控,哪怕是加速主义主张者。
在他们眼里,加速是在有效框架内,AI失控绝非命中注定。因为他们相信,人类应该无条件地加速技术创新,颠覆社会结构。哪怕这种颠覆会产生一定风险,本质上也是对人类有利的,会帮助人类更快达到更高的意识水平。此外,过去三百年,人类随着技术的颠覆而进化,结果显然都非常好,无一例外。
Altman亦在不同公开场合传递出他对AGI革新的乐观与信心。比如,今年6月的北京智源人工智能大会上,作为其个人在中国的首秀,他表示:未来十年AGI很有可能在几乎所有领域都超过人类的专业水平,最终可能超过人类最大公司的集体生产力。他还说明:人工智能革命将创造共享财富,并使提高每个人生活水平成为可能,解决共同挑战。
也是在这场会议上,Altman强调:当下OpenAI的主要研究目标集中在如何通过可扩展监督及可解释性的方式,让AI成为一个有用且安全的助手。
再比如,今年5月Altman启动全球之旅后,每一站,他都会高调分享AI优势。在伦敦大学学院演讲中,他说:“我对这项技术感到非常兴奋,它可以恢复过去几十年失去的生产率,不仅仅是迎头赶上。”
相应的,他也会突出AI适度监管的重要性。在他眼里,“安全”不等于站在“加速”对立面,但尤其要注重边界与程度。作为硅谷的首席执行官,他曾主动要求过美国国会进行监管。但他期望看到的监管模式是“介于传统欧洲方式和传统美国方式之间”,因为过度的规定可能会对小公司及开源运动造成伤害。
更坦率地说,Altman眼里的加速主义,包含着对公司商业化发展的考量。
最有前途的AI技术
需要大量算力,和资金
Altman坦言过:AI最终将需要更严格的监管保障措施,但现在还不是时候。目前,OpenAI 不需要严格的监管,甚至可能在未来几代人的时间里都不需要。
因为最有前途的AI技术需要大量算力,也需要大量资金。在通向这条康庄大道的路上,安全主义过分忧虑监管等问题,显然会限制人们对AI的想象,打击人们对AGI的信心,阻碍OpenAI的挣钱成长。
要知道,日烧500万的OpenAI,唯有先挣钱谋生,才有更多未来可谈。这一点,具有投资人特质的Altman再清楚不过。
据悉,去年,OpenAI整体亏损5.4亿美元,收入只有3000万美元。亏损大一部分用在了GPU方面的训练成本、算法和硬件资源上。伴随模型研发升级,其边际成本还会增大。为此,去年底Altman向市场公开ChatGPT,今年,公司推出付费版、定制化企业版等商业化产品。至10月,Altman表示公司年度营收或将达13亿美元。下一步,尤其在Altman正式回归OpenAI后,其商业化进程应该还会进一步增强。
至此,再回头看前段时间印度媒体说OpenAI会在2024年破产的新闻显然是无稽之谈。被资本捧在手心上,已有8岁年华的OpenAI即将迎来下一个8岁,甚至18岁…至于AI安全与监管、立法、技术保驾等问题,何时会被置于发展的第一要义,我们还不得而知。
只能说,时下炙手可热的AI创业公司,未来,都有望晋升AI安全公司。就像科技作家兼播客贾森·萨多夫斯基评价Altman所言:“他会立即创造出毁灭我们的东西,并将我们从中拯救出来。”