Category Archives: 我的研究笔记

不基于系综概念的刘维尔方程推理

[latexpage]

刘维尔方程是非平衡态统计力学中,关于任意系统微状态概率密度函数$f\left(\bm\Gamma,t\right)$的连续性方程:

\[\frac{\partial}{\partial t}f+\nabla_{\bm\Gamma}\left(f\dot{\bm\Gamma}\right)=0\]

这实际上在说,不仅作为概率密度,有归一化条件所规定的全域概率守恒
\[\int_{\Lambda_t}f\left(\bm\Gamma,t\right)\mathrm{d}\bm\Gamma\equiv1,\quad\forall t\]
——其中$\Lambda_t\in\mathcal{B}$是$t$时刻系统可取的所有状态的集合,$\mathcal{B}$表示$\mathbb{R}^{6N}$上的Borel σ-代数——而且对任一局域$\omega_t\subset\Lambda_t,\omega_t\in\mathcal{B}$,概率都守恒。这件事,在传统教科书当中是用系综的概念,然后说“系综的系统数量不变”来讨论的。以下我们从概率论的角度建立统计力学的基础。

考虑一个由$N$个粒子组成的系统,在统计力学中,考虑粒子数$N$恒定的情况已经足够一般。对于粒子数变化的开放系统,理论方法上总是通过扩大系统的划份,直至新的系统是封闭的(粒子数恒定),然后基于这个大系统的性质讨论当初的小系统作为子系统的性质。

在经典力学假定下,系统的状态总是可以由所有粒子的位置和动量所确定,也就是说,系统的状态总是对应着$6N$维实数空间$\mathbb{R}^{6N}$中的一个点$\bm\Gamma\equiv\left(\mathbf{r}^N,\mathbf{p}^N\right)$,其中我们简记$\mathbf{r}^N\equiv\left(\mathbf{r}_1,\cdots,\mathbf{r}_N\right)$和$\mathbf{p}^N\equiv\left(\mathbf{p}_1,\cdots,\mathbf{p}_N\right)$。

由于我们无法确定系统在任何时刻的微观状态,因此我们每一时刻,都为系统可取的每一个可能状态赋以概率。具体地,设$\left(\mathbb{R}^{6N},\mathcal{B}\right)$是一个Borel可测空间,$\Lambda_t\in\mathcal{B}$表示系统在$t$时刻所有可取的微观状态的集合,$\mu_t:\mathcal{B}\rightarrow\left[0,1\right]$是定义在这个可测空间上的概率测度,$\mu_t\left[X\right],X\in\mathcal{B}$表示$t$时刻系统的微观状态在$X$内的概率,实际上
\[\mu_t\left[X\right]\equiv\int_Xf\left(\bm\Gamma,t\right)\mathrm{d}\bm\Gamma\]
其中$f\left(\bm\Gamma,t\right)\mathrm{d}\bm\Gamma$是系统在$t$时刻微观状态处于$\bm\Gamma\sim\bm\Gamma+\mathrm{d}\Gamma$的概率。允许概率密度$f\left(\bm\Gamma,t\right)$得到定义所需要的$\mu_t$关于$\mathbb{R}^{6N}$的勒贝格测度的绝对连续性,实际上是由经典力学本身保证的,见关于离散测度没有密度的问题

在经典力学中,给定某系统,它的运动方程总是把一个时刻$t$的确定状态$\bm\Gamma_t$映射为另一时刻$t+\Delta t$的唯一一个确定状态$\bm\Gamma_{t+\Delta t}$,即我们可以提及相应的双射$\chi_t:\mathbb{R}^{6N}\supset\Lambda_t\rightarrow\mathbb{R}^{6N}$。

若$\Lambda_t\in\mathcal{B},\omega_t\in\mathcal{B},\omega_t\subset\Lambda_t,\omega_{t+\Delta t}=\chi_t\left(\omega_t\right)$,则首先看到因为$\chi_t$必是连续的(经典力学运动),故$\chi_t$总把开集映射为开集,即$\omega_{t+\Delta t}\in\mathcal{B}$,故$\chi_t$是可测映射。其次,我们看到:
\[\mu_{t+\Delta t}\left(\omega_{t+\Delta t}\right)=\chi_t_*\mu_t\left(\omega_t\right)=\mu_t\left(\chi_t^{-1}\left(\omega_{t+\Delta t}\right)\right)=\mu_t\left(\omega_t\right)\]
其中记号$f_*\mu$表示测度$\mu_t$的由可测映射$f$引出的前推测度(pushforward measrue),上面第二个等式用到了前推测度的定义,第三个等式用到了$\chi_t$的双射性。以上推理对任意$t,\Delta t\in\mathbb{R}$以及任意$\omega_t$均成立。因此我们证明了,$\mathbb{R}^{6N}$空间任一(可测)局域上的概率是沿区域随按照实际系统运动的运动的守恒量。因此有
\[\frac{\mathrm{d}}{\mathrm{d}t}\mu_t\left[\omega_t\right]\equiv 0\]

后续由雷诺传输定理即可得到关于概率密度函数$f\left(\bm\Gamma,t\right)$的刘维尔方程。

Leon B. Lucy

[latexpage]

背景

在数值计算领域有一个比较知名的去卷积迭代算法——Lucy–Richardson算法,它被后世集中用于图像去噪。例如,MATLAB的Image Processing Toolbox有一个deconvlucy命令,声称就是用Lucy–Richardson算法对给定图片(像素矩阵)作给定点扩散函数的去噪。

但是,Lucy的原文[1]所针对的问题,比现在一般应用更广义。假定$X$是一个连续取值随机变量。它理应按照分布密度函数$\phi\left(x\right)$。我们想把$\phi\left(x\right)$视为某种简单分布$P\left(x\middle|\xi\right)$按权重谱$\psi\left(\xi\right)$的叠加结果:

\begin{equation}\label{eq:original_phi_expression}
\phi\left(x\right)=\int P\left(x\middle|\xi\right)\psi\left(\xi\right)\mathrm{d}\xi
\end{equation}

而我们想得知给定形式的核$P\left(x\middle|\xi\right)$所对应的权重谱$\psi\left(\xi\right)$。在这里,$\xi$是核函数$P$的参数。比如,我们关心高斯核函数的情况,那么$P\left(x\middle|\xi\right)$可能是以$\xi$为标准差的高斯函数

\[P\left(x\middle|\xi\right)=\frac{1}{\sqrt{2\pi\xi^2}}\exp\left[-\frac{\left(x-\mu\right)^2}{2\xi^2}\right]\]

在图像去噪的上下文中,以deconvlucy为例,核函数$P\left(x\right)$是一个固定参数$\xi$的函数,且$\xi$的取值范围(即$P\left(x\right)$的“宽度”)远窄于$x$的范围(在图像语境中是图像的大小)。但在Lucy原文的语境中,$\phi\left(x\right)$、$P\left(x\middle|\xi\right)$和$\psi\left(\xi\right)$都是支撑为整个实数的分布密度函数。可以说,图像去噪应用,只是Lucy原文算法的其中一个很特殊的例子。

数值计算的设计艺术

在我的研究中,恰好需要解决Lucy原文意义的问题,因此我是认真阅读了Lucy的原文多次的,有些其他方面的感受。

原文的文字极其清晰和流畅,逻辑十分严密,记号仔细(既不滥用又不混用)。我觉得这是有成就的作者的共性。读到这样的文字就能说明作者是事实上的大师(尽管世俗名誉上未必)。

在论文发表的1970年代,电子计算机在科学计算中的应用已经比较普及。原文没有提及所报道的验证实验是在什么计算机上进行的,只在致谢中说到了NASA的Goddard Institute for Space Studies (GISS)提供了机时。我相信,这应该是一种需要申请节点的大型计算机,机时资源应该是比较昂贵的。

在今天,像我这种数值计算的外行,可以在MATLAB开发环境中重复运行多次来学习一个没有从原理上吃透的算法的行为,因为很多计算在今天的普通笔记本电脑上运行都毫无压力。但是在当年,这种“作弊”的做法是不提倡的。给定一个算法,你理应努力地在草稿纸上分析它的好处和坏处。这种功夫我没有,但从这篇论文中还是领教了它的优雅。

从算法的原理,就能看出它的结果只对长波长噪音敏感,而对短波(高频)噪音迟钝,它在头几个迭代就能快速收敛,它在样本数$N$太少时会有什么异常……等等,都通过分析,在不放到计算机中瞎试之前,就都清楚了。而我的做法,常常是边试边改算法。极度浪费计算资源来迁就我在分析上的懒惰。这在今天也许不是什么罪过,甚至作为一个数值计算的外行,这可以说是在聪明地节省时间,但我仍然对原文这种“数值计算的设计艺术”感到敬佩。

有那么一些论文,我是称之为“教学论文”的,就是它好到可以拿来作为典范,给研究生作为范文,去学习很多超出论文具体内容的东西,比如论文结构、学术英语写作、批判性逻辑、乃至科学精神。Lucy的这篇论文就可以称之为一篇“教学论文”。

该作者的全名是Leon Brian Lucy。关于他的详细信息,可见其一篇讣告[2]和纪念文章[3]

References

  1. L.B. Lucy, "An iterative technique for the rectification of observed distributions", The Astronomical Journal, vol. 79, pp. 745, 1974. http://dx.doi.org/10.1086/111605
  2. D. Baade, J. Danziger, R. Hook, and J. Walsh, "Leon B. Lucy (1938–2018)", Bulletin of the AAS, vol. 54, 2022. http://dx.doi.org/10.3847/25c2cfeb.88cfeeba

“高分子物理学中的标度概念”提出的背景

P. de Gennes的著作Scaling Concepts in Polymer Physics,正如他的其他经典著作,读者需要具备相当近世的物理学背景知识,才会理解他文中ansatz或cartoon是怎么来的。这本书在高分子领域十分著名,但提及这本书的人远多于看懂甚至看过这本书的人。我在这里简单地讲一下这其实是在干嘛。

上世纪六十年代,临界现象成了凝聚态物理的热点。从“二级相变”到“连续相变”再到“临界现象”,术语的改变反映了这一物理现象在凝聚态物质中的普遍性。焦点在于,临界点附近,空间涨落发散,朗道的理论处理方式失效了,怎么办?标度理论和重整化群理论是应此需求而发展出来的。所以,先要熟悉这些理论方法在其原本针对的问题中是怎么发挥作用的。

de Gennes的书,与其称作“高分子物理学中的标度概念”,从今天的视角来看,不如改为“软物质的准临界观念”(quasi-criticality views in soft matter)。因为,包括但不仅限于高分子的软物质体系的共同点就是其密度涨落远高于小分子尺度,还有复杂的波矢分布;所幸的是它们往往又能在随机分形的观念下找到自相似性。这种密度空间涨落的不可忽略性以及结构的自相似性,特别像一个正在发生临界转变的体系快到临界点时的样子——尽管这些软物质体系并不是正在发生临界转变。因此,在处理临界现象中获得成功的那些理论——包括但不仅限于标度理论和重整化群理论——就能用于软物质体系。所以,de Gennes观点的重要性不在于具体地、一次性地把历史上某一种理论用到了高分子物理学中,而是道穿了软物质和相变体系的等价性。未来如果有新的相变理论,就可以按同样的道理挪用到软物质中。也就是说,专心研究临界转变就行了,软物质理论只是个副产品。一个有意识的却懒惰的理论物理学家,可以盯着临界转变界的理论进展,到差不多挪用到软物质上,变得好像自己开创了一个软物质理论体系似的,四两拨千斤。

在那些只记得几条对称性或变分法原理就行遍天下的原始物理学家眼中,这些都属于“应用”。物理学的发展在于旧对称性的取消或新对称性的确认。就连新对称性下的变分法原理都属于第二位的。