世界并不按我们的认知运转,而我们的认知,也不是世界本来的样子。

大多数人对物理规律的理解,是从牛顿的苹果掉落开始的。物体掉落,重力存在,这似乎是最基础的常识。然而,这种“常识”不是本能,而是后天习得。人脑的学习方式,并非先掌握理论,再去验证,而是通过经验构建内部模型。换句话说,我们的思维方式,不是由物理定律决定的,而是由信息处理方式塑造的。
换个角度看,一只猫并不理解电磁学,但它知道哪扇自动门会给它提供食物。而人类呢?大多数人不会计算广义相对论,但知道跳下去会摔疼。这就是问题的核心:物理现实独立存在,但物理模型却依赖观察者。观察者如何提问,能提什么问题,不能提什么问题,完全取决于认知能力。物理学的知识,不是外部强加给世界的,而是大脑自身为了减少不确定性而构建的。
这就是自由能原理(FEP)的基本逻辑。所有生物系统都在最小化自由能,避免感知上的“惊讶”。大脑的任务,就是让自己对外部世界的预测越来越准确。换句话说,我们的思维方式,不是为了理解世界而存在,而是为了生存。预测错误,付出的代价可能是丧命。
极端物理信息原理(EPI)提供了一个相似的视角:物理定律本质上也是信息处理的结果。物理世界的状态是未知的,观测者通过有限的信息来推断规律,而最优的信息使用方式,就是最小化信息损失。换句话说,物理定律不是“被发现”的,而是“被导出”的,是对观察到的世界最优的信息编码方式。
这两个原则——自由能原理和极端物理信息原理——看似毫无关联,一个研究大脑如何处理信息,一个研究如何推导物理定律。但核心逻辑一致:它们都涉及最优化问题,都是在约束条件下寻找最优解。关键的数学工具,是Kullback-Leibler(KL)散度——衡量两个概率分布的差异。这在统计学上常见,在物理学、神经科学、信息论里同样通用。
大脑如何学习?简单来说,它在不断调整自己的内部模型,使之尽可能接近真实世界的数据分布。每次我们做出预测,都会更新自己的世界观。这个过程,可以理解为一个贝叶斯更新的循环:先有一个先验p(θ),然后根据新的感知y更新成新的分布q(θ)。这个调整的目标,就是最小化KL散度,让内部模型与现实尽量吻合。
如果不断迭代,最终大脑的内部模型就会稳定下来。这时,q(θ)接近p(θ),也就是说,大脑的认知模型基本符合现实。而一旦这个过程完成,意识就会逐渐消失,因为意识的作用,就是在“惊讶”出现时调整模型。当预测误差消失,意识也变得不必要。
但问题来了:这种最优状态真的能达到吗?
数学上,q(θ)和p(θ)的差距理论上可以无限趋近,但从来无法完全等同。换句话说,任何生物都不可能真正完全理解世界,只能做到尽量减少误差。这意味着,物理世界中,必然存在一些人类无法感知、无法提问、甚至无法想象的问题。
回到极端物理信息原理,它提供了一个有趣的推论:既然物理定律本质上是信息极小化的结果,那么,一个足够强大的大脑,哪怕不依赖实验,也能推导出物理定律。换句话说,物理定律未必必须“发现”,而是可以“计算”出来。
一个简单的例子:玻尔兹曼-吉布斯分布。这个分布在物理学中描述热力学系统的能量分布,但如果从FEP角度看,它是大脑最保守的假设。也就是说,如果大脑完全不了解某个系统,只能根据有限的观测值构建概率分布,那么最优的分布形式就是玻尔兹曼-吉布斯分布。换句话说,信息熵最大化原则,不仅适用于物理世界,也适用于大脑的信息处理。
进一步推广,经典力学的概念,也可以通过类似的方法推导出来。如果大脑的感知y和物理变量θ之间是一个简单的高斯分布关系,那么内部模型也会收敛到一个高斯分布,而这个分布,恰好符合牛顿力学中物体运动的统计规律。换句话说,经典力学不是“真实”的,而是人类大脑处理信息的最优解。
问题的核心在于:如果我们的物理模型只是信息处理的产物,那么,它是否真的反映了世界的真实结构?
物理学家一直在追求一个终极定律,一个能解释所有现象的统一理论。但从FEP和EPI的角度看,这个目标可能根本不存在。因为物理定律的形成,不是基于客观现实,而是基于信息优化。换句话说,不同的观察者,可能得出完全不同的物理定律,而它们都在各自的认知框架内“正确”。
回到文章开头的问题:猫不理解电磁学,但能找到正确的食物门。人类不理解宇宙的终极法则,但能构建符合生存需求的物理模型。区别只是,猫的世界是喂食器,而人类的世界是量子力学。
但问题是,猫永远不会质疑喂食器的运作原理,而人类却会不断质疑自己的物理模型。
这或许才是人类与其他生物的根本区别。