OpenAI内斗主角创立新公司,称不为赚钱,只为安全超级智能

趣唠科技不打烊 2024-07-03 16:28:54

文丨海天

大神又回来了。

前脚刚离开OpenAI,AI行业大佬Ilya Sutskever马上创办一家新AI公司,名叫Safe Superintelligence。

不甘寂寞、不愿养老的Ilya Sutskever坚定认为,真正先进的AI系统已经出现在地平线上,人类应该快步跑向它。一个多月前,Ilya Sutskever因为OpenAI内斗选择离开,现在他开始了新冒险。

新创建的Safe Superintelligence Inc.(简称SSI)将总部设在美国特拉华州,计划在美国Palo Alto和以色列特拉维夫开设办公室。

按照描述,SSI实际上是一个超级智能实验室,它致力于打造安全、强大的AI系统,近期内并无销售产品或者服务的计划。

Ilya Sutskever在接受采访时表示:“这家公司的特殊之处在于,它的第一款产品将是安全的超级智能,在达到此目标之前不会做任何其它事。SSI不必承受任何外界压力,因为它没有必要急着打造庞大而复杂的产品,没有必要陷入激烈的竞争。”

与Ilya Sutskever一同作战的还有两位联合创始人,一位是知名投资人、苹果前高管Daniel Gross,另一位是曾与Ilya Sutskever一起为OpenAI效力的AI研究员Daniel Levy。

为了安全放弃短期利益

在宣言中,SSI强调公司将会把安全置于短期利益之上。如果真能执行到位,意味着SSI将与其它AI实验室完全不同,其它实验室往往会开发多款产品、设定多个目标。

理想很美好,但SSI能否成功存在悬念。众所周知,AI开发需要庞大的算力,需要庞大的启动资金,SSI不求利润的作风肯定会吓退不少投资者。

幸好SSI团队已经拿到必要的启动资金,所以早期不会有什么问题,但能够走多远却是一个谜。

另外,SSI设定的理想相当远大,它试图打造“超级智能”,投资者肯定会怀疑,因为打造超级智能绝非易事,失败率极高。今天的AI离AGI(通用人工智能)还有遥远的距离,超级智能比AGI还要高级,SSI能做到吗?

至于SSI宣扬的“安全”,它本身就是一个十分模糊的概念,没有清晰明确的解释。

虽然我们对SSI保持怀疑,但SSI的创始团队实力强悍,不容小觑。三位创始人都有着丰富的经验,既然他们设定如此高的目标,坚信超级智能将会实现,坚信安全极为重要,我们只能祝福他们取得成功!

执著的Ilya Sutskever

5月14日,Ilya Sutskever离开OpenAI,因为他鼓动内斗,将OpenAI CEO Sam Altman驱逐,后来Sam Altman回归OpenAI,Ilya Sutskever只能选择离开。

有传闻称,Ilya Sutskever之所以与Sam Altman不和主要是因为理念不同。Sam Altman开始追求利润与营收,Ilya Sutskever却始终将安全看得比利益更重要,双方分歧越来越大,最终导致内斗。

2023年7月OpenAI内部设立Superalignment团队,由Ilya Sutskever和Daniel Levy领导,主抓AI安全事务。团队的目标是更好控制和操纵比人类聪明得多的AI系统,也就是所谓的AGI系统。最初设立时,OpenAI将20%的算力划拨给Superalignment,后来可能是出于成本考虑,OpenAI削减投入,此举可能导致最终的内部分裂。

Ilya Sutskever担心AI安全完全可以理解,但是否过度担心却很难说清,有很多科技名人也担心AI威胁人类。

Ethereum联合创始人Vitalik Butertin谈及OpenAI内斗时说,AGI的确存在风险,但这种风险没有企业自大狂和军队那么大。

特斯拉创始人马斯克、苹果联合创始人Steve Wozniak也对AI安全存在担忧,他们曾联合另外2600名科技领袖及研究人员在公开信上签名,呼吁人类将AI训练暂停6个月,先讨论它是否存在重大风险然后再行动。

Ilya Sutskever既然创建了SSI,说明他会坚守心中的安全信仰,继续前进。他在X发消息称:“我们会一以贯之追求安全,关注一个焦点,瞄准一个目标,打造一款产品。我们会用一个小团队来打造革命性、突破性产品,通过产品实现愿景。”

SSI正在招募工程师和研究人员,但从Ilya Sutskever的讲话可以看出,招募的人员不会太多。

SSI到底是怎样的公司

SSI如何让自己的AI比对手更安全呢?Ilya Sutskever现在还没有给出明确回答,他只是暗示SSI会通过工程突破来到达成目标,突破性技术会植入AI系统,不会像以前一样依赖于护栏。

Ilya Sutskever称:“至于所谓的安全,我们指的是像核能一样的安全,不是‘信任和安全’所说的安全。”

联合创始人Daniel Gross说:“我的愿景和Ilya Sutskever是一样的,我们要打造一个小型精干团队,每个人都关注同一的单个目标,也就是开发出安全的超级智能。”

实际上,打造安全超级智能也是OpenAI的最初目标,最开始OpenAI只是一个研发组织,它想打造更强的AI,AI在完成大多任务时能力达到或者超越人类水平。

可惜,随着OpenAI的壮大,公司架构改变,因为需要庞大的算力,OpenAI只能融资,使命也有了变化。微软成为OpenAI股东之后要求公司推广创收产品,OpenAI调整了经营策略。

Safe Superintelligence创建之后应该也会碰到类似OpenAI的问题,SSI知道自己会面临许多问题,但融资不会成为它的关注点。

Ilya Sutskever和另外两位创始人在公开招聘信件中进一步介绍了SSI的初衷、使命,我们看看信件写了些什么:

超级智能是完全可以企及的。对于我们这个时代来说,打造安全的超级智能是极为重要的技术问题。所以我们创建了世界首个直接的SSI实验室,只有一个目标,只有一款产品:它就是安全超级智能。因此我们的公司名叫作Safe Superintelligence Inc.(简称SSI)。SSI是我们的使命,是我们的名字,是我们的整个产品路线图,它也是我们唯一的聚焦点。我们的团队、投资者和业务模式都将与达成SSI这个任务对齐。我们会把安全和功能结合起来,因为技术问题要通过革命性的工程和科学突破来解决。我们会以尽可能快的速度增强功能,同时将安全放在首位。通过上述方式,我们可以平静的扩大规模。因为只有一个焦点,我们不会为管理费用、产品循环问题而分心,我们的业务模式围绕安全展开,前进的步伐不会受到短期商业压力的干扰。我们是一家美国企业,会在Palo Alto和特拉维夫设立办事处,我们根基很深,有能力招募到顶级技术人才。我们将会打造一个精干的团队,它由世界最棒的工程师、研究人员组成,团队将聚焦于SSI,不关注其它。如果你是志同道合者,我们可以为你提供一个机会,让你实现毕生所愿,你将有机会为我们的时代解决最重要的技术难题。别犹豫,加入我们吧。

0 阅读:0

趣唠科技不打烊

简介:感谢大家的关注