谷歌是要跟OpenAI打起来吗?
先是推出了新模型Gemini 1.5 Pro的0801测试版,踢馆GPT-4o;
这样还不够,现在谷歌又要从价格上压OpenAI的GPT-4o mini一手,Gemini 1.5 flash定价降低至GPT-4o mini的一半。
谷歌近日发文宣称,他们对Gemini 1.5 flash模型进行了改进。从今年8月12号开始,输入tokens价格降低约85%,输出tokens价格降低约80%。更新后的定价为:
0.075美元(约合人民币0.53元)/百万个输入tokens。
0.3美元(约合人民币2.13元)/百万个输出tokens。
众所周知,Gemini 1.5 flash的优点是,它有200万个tokens的上下文长度。价格更新后你可以直接给它扔一个代码库,或者几小时的音频视频字幕,它都能处理,甚至花不了多少钱。
看数据似乎是“业界又一重磅炸弹”。
但笔者真正上手使用后,老觉得“这AI好像跟我总是不太对付”。
比如众所周知的,目前的AI写出来的稿子都普遍缺乏“人味儿”。我找了一个题目:
关于扫地机器人有以下卖点:1. 自动扫描室内环境2. 自动识别室内障碍物3. 自动充电4. 智能调节清洁强度请根据这4个卖点帮我生成一篇视频口播稿,目标人群是35-45岁的中年人,目的是希望通过极具吸引力的视频内容,引起观众购买欲把它丢给GPT-4o mini和Gemini 1.5 flash:
怎么说呢,GPT-4o mini的稿子我已经觉得够烂了,“首先-其次-而且-最后”的句式,一看就是GPT模型写的。
但Gemini 1.5 flash却让我觉得刷新了下限。虽然乍一看内容格式花里胡哨,我让他写口播稿,它把镜头描述都写了。
但是,仔细一读,这调调怎么这么奇怪,没有人味儿,完全不像是一篇口播稿,而是像一篇图文稿。难不成Gemini训练的时候没见过视频ASR语料?
不仅没有口播味儿,而且内容上,也实在谈不上调动购买欲。
你们能不能学学人家隔壁Claude的进化速度??
你看看人家Claude 3.5写出来的口播稿:
虽然没有多此一举的镜头描述,但是仔细一读,至少语言措辞上像个视频口播稿,甚至还有语气词,并且在内容上具象化了不少细节描述。嗯,至少可以当实习生来用了。
你也别吐槽人家Claude 3.5是Anthropic公司的旗舰模型,不信,搬出同样旗舰模型的Gemini 1.5 Pro看看:
不是,里面这句“35-45岁的你还在等什么”是什么鬼!
直接把我输入prompt里面的要求无脑复制粘贴到口播稿里了??
我要用你Gemini当我的私人助手,我可能得被气的每年少赚两个小目标。
而生成速度方面,Gemini 1.5 flash也明显比GPT-4o mini差点意思:
至此,笔者就有一种感觉,G家的旗舰模型没有杀出来,于是去卷小模型,但小模型价格上既没有拉开一个数量级,效果和速度上还不占优势。
只能就,期待G家早点拿出让人exciting的模型吧。
降价,但请不要降智要说降价,最早得追溯到 GPT3.5 的一路狂降。
但从2022年用过来的小伙伴都知道,现在的GPT3.5已经弱智到「狗都不想理」了。
要不是GPT-4o mini出来,我都觉得OpenAI可能真的不能继续期待了。
笔者所期待的降价,是建立在智商在线后,通过技术手段降低运维成本,进而实现降价不降智。
比如Deepseek就通过“上下文缓存”这个聪明的小trick来实现多轮对话降本不降智。
这种小trick不仅能加快模型响应速度,还大大降低了总体使用成本。
根据Deepseek的预期,这也许能削减90%的API使用成本。
关键是,不会损伤模型智力啊。
如果说,2023年,我们还在畅想国产模型哪一天能追得上国外第一梯队大厂的大模型效果。
那么时间来到2024下半年,我觉得还是多看看国内吧。
参考资料
[1]https://cloud.google.com/blog/products/ai-machine-learning/lower-costs-more-languages-for-gemini-on-vertex[2]https://platform.deepseek.com/api-docs/news/news0802/