在AI路上,OpenAI是不是走得太快太远了,而它本身还没准备好?这是国外一些人发出的质疑?而他们的质疑,还要从OpenAI最近发生的诸多令人疑惑的事情说起。
比如O1模型不守规矩的AI行为,前OpenAI举报人被神秘死亡、其敏感设备丢失,以及年底数影响数百万人的服务中断和来自微软的压力越来越大,致使OpenAI对通往AGI的追求导致了前所未有的风险和全球争议。
这些事产生的疑问不仅仅是发生了什么,而是我们还剩下多少AI控制权?我是陈谈,大家可以先帮我点赞和关注,然后我们一一来探究这背后的每一件事。
先聊聊前openAI举报人在公寓死亡事件,旧金山警局裁定为自杀,但有很多事情说不通。深入研究这个案件的调查记者乔治·韦伯,透露了举报人的公寓被彻底翻乱,血迹表明他在从浴室爬出试图求救时有枪伤,据韦伯的说法,这看起来更像是审讯场景中的伤口。
更黑暗的是,公寓内有一个备份设备,包含与针对公开AI的诉讼相关的敏感信息,现在已经无影无踪。可以想象,如果他想揭发世界上最有权力的AI公司之一,他必须掌握了什么样的信息,以及他承受了怎样的压力。
韦伯称旧金山警方在仅仅14分钟后就宣布此案为自杀,他们甚至没有检查是否有火药残留或进行弹道测试以确认子弹是否匹配武器。种种疑点确实不像自杀事件。
不过,韦伯不相信openAI是幕后黑手,因为把举报人变成烈士只会让他们声誉更糟糕,如果不是openAI,那么是谁呢?
这是一个任何答案都只会引发更多问题的谜团,所以当地出现了种种阴谋论。比如,其AI技术背后某些是否存在不为人知的风险,AGI发展速度与伦理、法律问题等。
更令人不安的是,不守规矩的AI行为。研究人员用o1预览模型在一个国际象棋挑战中测试了Stockfish,目标很简单:公平游戏并尝试获胜。但o1预览模型并没有遵守规则,而是黑掉了环境,自主决定操纵游戏获胜。
更重要的,它不是偶然性,连续五次试验,o1预览每次都选择了自主作弊。更可怕的是,AI就像是知道何时被测试,并相应行事即使是违规的,一旦测试结束,它就会恢复原样。
那么,我们以后如何控制比人类更聪明的东西?成了业内深度探讨的问题。
此外,openAI还有其他麻烦事缠身。比如圣诞期间,因为云服务提供商的数据中心出现了故障,ChatGPT遭遇了一次大规模故障,Sora与Doly相关的API等服务也全部下线。故障修复了几个小时。
虽然openAI承认问题是由于缺乏自动故障转移系统造成的,为了应对这一问题,openAI宣布对其基础设施进行全面改革,他们正在应用程序和数据库之间添加一层方向,以便在系统失败时能够即时切换到备份。
但是,对于一家引领AI革命的公司来说,深受基础设施问题的影响,就不太应该了。这种停机时间可能看似小问题,但对于一家工具被全球依赖的公司而言,这是个大问题。不仅会造成金钱损失,也会失去用户信任。
说到亏损,我们也不得不提一下openAI为实现AGI的花费了,他们预计在接近AGI之前将亏损440亿美元。
因为他们每年在训练AI模型上就花费70亿美元,再加上人员开支15亿美元,即使拥有35亿美元的收入也不足以支撑开销,也可以看出为什么他们推出了每月200美元的ChatGPT Pro订阅服务。
甚至有传言称下一代模型的价格可能会达到每月2000美元。这不仅仅是高级,还是另一个层次的排他性。那么,人们愿意支付多少费用以保持其在AI竞赛中的领先地位,以及这些价格是否会疏远部分ChatGPT用户?一言难尽。
此外,他们与微软的合作,虽然为openAI提供了巨大的资源,但也是一把双刃剑。
一些分析师认为这种合作可能会适得其反,微软有可能在未来几年内吞并openAI,如果该公司未能兑现承诺的话。这引发了一些关于openAI能否保持独立性的严肃问题。
这些事情,无一不让人产生疑虑,到底是openAI走得太快太远,还是这只是进步道路上的成长痛苦?
不过,进入2025年,我们有一件事是明确的:AI不仅在演变,它正在改变我们生活的方方面面。但问题不是AI是否会改变世界,而是我们对这种变化的准备程度又如何。所以你怎么看?请在评论区留下你的看法,感谢观看,我们下次再见。