“做面包”是你在厨房里能做的最数学化的事情之一,这远不止量出配料这么简单。当你折叠和压缩面团时,你正在进行拓扑变形。揉捏的动作构成了一个在混沌理论中被称为贝克图(Baker’s Map)的操作,在这个操作中,一个动力系统的混合从一个系统的映射到它自身,并多次进行。
混合是一种混乱,但不是随机的行为。它的发生是因为系统中的非线性自相互作用,导致系统完全重塑自己,经过足够多的迭代,系统物质的每一种可能的组合都会出现。这对于称为遍历理论的数学物理领域是至关重要的,遍历理论是统计物理的基础。当然,这并非没有约束。原子不会发生核聚变或扩散到数光年之外,除非那是你定义系统的一部分。然而,混合会确保面团不仅达到最大熵,而且在足够的时间内,面团中庞大数量的分子总数会经历所有可能的排列。
在我们的宇宙中,混合是最基本的形式之一,远远超过了随机性。这是什么意思?
其基本理念是,一个被执行无数次的贝克图完全没有可预测性,所有组件都被完全打乱,从而成为随机的。
当你在确定性过程中加入一个像这样的随机过程时,就会产生随机系统,就像摆动的弹簧或滚下山的球。确定性过程提供了整体运动,而随机性提供了运动的统计分布。随机系统中的随机性取决于所涉及的长度范围,但大多数系统都有一些随机行为。
混沌混合和随机性之间的关系是所有统计物理的基础,但我认为混沌混合实际上是更基础的。原因是我们知道至少对于像气体这样的经典系统分子是基本单位。因此,混乱的混合不会发生在分子水平以下。相反,分子的热行为是由动能和碰撞其他分子的组合产生的。在分子模型和实验测量之间有很好的一致性。
在这个小尺度上,两个 (或更多) 分子的相互作用是确定的和混乱的,而不是随机的。因此,我们与随机性联系在一起的特征来自确定性混沌,而不是真正的随机性。
统计物理学的另一个有趣特征是,随机性并不是做出预测的关键因素。它通常用于模拟和不可预测的热波动,但如果基本成分不是随机的,而是简单地混合,统计预测通常也能奏效。重要的是混合,因为混合会导致元素在正确的时间内以正确的构型结束。
以温度或压力为例,这是统计过程的结果。对于温度来说,重要的是分子在正确的位置提供了正确的能量来反映每个分子的平均动能。而且,正如我之前提到的,这种混合在本质上必须是分形的。你需要看到所有层次的混合发生,这样,无论你的温度计是怎样的,你仍然会看到相同的平均温度。但是当你看到分子的大小时,这就结束了。如果你的温度计是以单个气体粒子为刻度的,你就不能正确地测量它。
为什么这很重要?
因为我相信宇宙从根本上来说不是随机的。上帝不掷骰子。相反,上帝是一个面包师,他从宇宙的尺度一直烤到普朗克长度。再小一点,烘焙就停止了。即使涉及到量子现象,一切都只是烘焙,但在另一个维度,空间和时间本身被揉捏。
如果是这样,那么随机性就是一种幻觉,随机性的模型是混合的近似。
诺贝尔奖获得者肯尼斯・威尔逊,他可能是统计物理学和量子场理论中最伟大的英雄之一。他发展了一个关于长度尺度的理论,向我们展示了如何在特定的长度尺度上建模物理系统,并将这些尺度彼此关联起来。从威尔逊的遗产中,我们得到了对随机系统的现代理解,特别是状态变化,如水结冰或蒸发,或磁体磁化或退磁。
由此,我们可以理解为什么物理系统不仅在一个长度尺度上混合,而是在所有长度尺度上混合,无论是一个分子大学或普朗克长度。正是由于这些系统在不同长度尺度上的“自相似性”,它们在不同尺度上的行为相似,但具有较强或较弱的自相互作用,这可能会使这些系统在一个尺度上或多或少地混合在一起。
例如,有些系统在大尺度上是平滑的,但在小尺度上却是粗糙的。另一些则恰恰相反,在大尺度上是复杂和混乱的,但在小范围上是简单和容易预测的。
空气在大尺度下的表现与在小尺度下的表现是截然不同的,这就是为什么飞机可以用大的固定翼穿过空气,而苍蝇必须嗡嗡地穿过漩涡气流。这和空气的粘度有很大关系,有时和空气的随机运动有关。
股票市场是另一个在长时间间隔比短时间间隔更容易预测的例子。这就是为什么你可以投资指数基金,把你的钱投资 10 年,并且相当自信你会赚钱。
然而,一种尺度的混乱也会传播到另一个尺度。这就是所谓的蝴蝶效应。威尔逊特别指出,试图将不同尺度分离是愚蠢的。相反,我们必须将它们相互联系起来,并处理这样一种可能性,即我们感兴趣研究的现象取决于所有长度范围内发生的事情,而不仅仅是一个范围。特别是当一个系统接近所谓的“临界点”时,比如冰融化或磁铁磁化,所有的尺度都会聚集在一起产生这种现象,引起级联,以他们的方式上下波动,这样就会发生一些神奇的事情,系统就会被改变。
同样,在金融领域,小的变化可以影响大的趋势,反之亦然,这样就到达了市场崩溃或繁荣的临界点。你永远无法确定每一秒发生的事情不会爆发,不会影响每个月发生的事情。
所有这些都没有假定随机性存在或不存在。相反,它只是假设混合(随机或非随机)发生在许多不同的尺度和不同的速度。随机性对数学家和物理学家来说当然很方便,但不是必需的。
假设系统是随机的好处之一是,它可以除所有你不理解的外部因素。但作为世界运行的基本模型,随机性是站不住脚的。随机模型总是依赖于某种神秘的熵源。它们不允许系统是完全封闭和确定性的。随机性的另一个特征是它破坏了系统的一些很好的数学特性,比如可微性。
如果你有一个粒子,它是随机波动的,根据某种正态分布,它的运动是不可微的。原因是,在一段很小的时间内,它平均移动的距离与时间的平方根成正比。导数依赖于无限小的时间和距离成比例,所以它们中的微小量在比例中抵消。但随机性并非如此。除非随机性在一定长度范围内神奇地消失,否则将陷入不可微分运动中。
这也是为什么量子力学有非交换算符的原因,这些算符根据你应用它们的顺序会给出不同的答案。这就是海森堡测不准原理的来源。
如果我们说系统从来都不是随机的,它们只是因为内部的非线性自相互作用或与外力的无法解释的相互作用而被混合,不是更简单吗?
也许是,也许不是。我们有整个分布理论来处理随机性。我们用算子微积分来处理随机性。我们不需要用复杂的,多尺度非线性混合运算来代替它来得到像可微性这样的东西。
但是如果我们真的想要了解内部发生了什么呢?我们可以加倍重视随机性,或者我们可以质疑它并尝试着去理解它的局限性。
我在想,用林德布莱德方程来处理量子力学,这些方程式将随机性编入量子力学,以便解释为什么量子测量看起来是随机的。既然量子预测没有它们也能正常工作,为什么要引入它们呢,除非你想说上帝确实玩骰子?
如果上帝是面包师呢?
本文来自微信公众号:老胡说科学 (ID:LaohuSci),作者:我才是老胡
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。