其实 2c 消费电子产品的定义已经走向了第三个阶段。
最终产品,在市场上可能都混在一起,但是其实给用户实际的价值和使用的体验是完全不同的。
* 第一个阶段,即软硬整合。
其实就是确定 TA(目标用户),寻找痛点,解决问题。
所谓软硬整合,就是这个阶段的 know how,因为目标是解决问题,软硬件已经是手段。
典型的例子就是三星 Galaxy note 这种产品,商务人群有在手机上操作文档的需求,所以弄了大屏幕,弄了指点笔,支持了一系列商务软件。这方面三星是翘楚,他们把全球用户分了三十多类,一个个的分析和推出产品。
* 第二个阶段,就是软件定义硬件。
这个阶段更激进,用户的洞察和所谓痛点退而求其次,首先考虑软件能力的进步。比如电容多点触控技术出现了,而 3G 网络的“高速”流量带来了浏览器的爆炸。
软件的爆炸本身,就已经是消费者洞察和痛点的证据,所以没有必要再分类和分析消费者了。
为了软件做一个最好的硬件就行了。
典型的例子就是 iPhone,他就是一个可以直接用手指非常方便操作的随时随地浏览网络的设备。所以他也不像三星那样需要推出那么多的型号。本质上 iPhone 只有一个产品定义,不同的屏幕大小而已。
* 而今天,我们进入了第三个阶段,就是神经网络定义硬件。
因为软件的进步已经停滞,但是神经网络模型带来了更多全新的能力。释放这些能力才对消费者有更大的价值。
今天只有模型访问量的增长,才能媲美当年浏览器和 Apple Store 的增长。
典型的例子有两个,第一个是自动驾驶汽车,真正的端到端自动驾驶汽车,其实本质上是围绕着两个神经网络定义的。
一个是自动驾驶的神经网络,一个是基于 LLM 的本地的智能驾舱的神经网络。如果你们不能理解,搞个理想汽车就清楚了。
另外一个例子更便宜一点,就是 meta glasses。在整个行业辛辛苦苦做眼镜的显示,努力了很多年,单款卖不了十万个的时候。。。
meta glasses 做了个在眼镜上增加摄像头的产品,卖了 300 万条。。。为什么做语音和摄像,不做显示呢???
因为 2023 年的 LLM ,拥有非常 NB 的自然语言对话能力的同时,开始支持多模态,即视觉。
LLM 可以看见,你不给他摄像头,做什么显示。。。
接下来, LLM 定义的硬件会越来越多,而且也可以提供以往硬件不能提供的全新的体验,这个增长,应该刚刚开始。
至于那些拿着硬件定义配置表比拼参数的硬件定义方式????
他们是史前时代的硬件产品定义逻辑。
没有匹配能力足够的自动驾驶模型,没有相应的软件整合,就是把马力堆到 1500 匹。。。那也没什么 NB 的,只是忽悠参数党的史前时代的恐龙。
参数大一点,那么也是早被时代淘汰的霸王龙而已。
从这个角度,你应该可以理解为何 mega vs su7u 的代差有多少了吧。。。虽然上市时间差不多,价格差不多。。。