基于张量网络的机器学习(八)

  已经很久没更新这个专栏了,现在让我们先解决一下上一次博客中提出的问题:

  1. 什么是纠缠熵面积定律?
      前面已经提到过,截断了的MPS是否有效与纠缠熵的面积定律有关(即纠缠熵面积定律告诉我们你的截断维数可以怎么取,我们根据这种方式),而且,我们希望借助纠缠熵面积定律找到一维MPS的截断维数,最后使得MPS中的矩阵维数为1×dd×d2d2× χ \chi χ,……, χ \chi χ× χ \chi χ,……, χ \chi χ×d2d2×dd×1。用比较物理的话来说,纠缠熵面积定律就是在热力学极限下,对于有短程相互作用构成的哈密顿量,如果其基态相对于激发态有能隙,那么基态的两个部分(A、B两部分构成一个量子体系)之间的纠缠熵正比于它们接触的表面积,式子为:
    S A ∣ B ∝ L D − 1 S_{A \mid B} \propto L^{\mathcal{D}-1} SABLD1
    L代表A、B接触部分的周长, D \mathcal{D} D代表体系的空间维度,我们知道,量子态的纠缠熵是这么定义的:
    S = − ∑ α = 0 D − 1 Λ α 2 ln ⁡ Λ α 2 S=-\sum_{\alpha=0}^{D-1} \Lambda_{\alpha}^{2} \ln \Lambda_{\alpha}^{2} S=α=0D1Λα2lnΛα2
    Λ \Lambda Λ α \alpha α是奇异值, Λ \Lambda Λ是奇异谱,有时候为了方便,也会把奇异谱中的奇异值排列成一个向量

  2. 时间演化是什么?
      时间演化顾名思义就是指随着时间的变化状态发生了改变,在量子力学上就是物理状态和观测量随时间的变化,再具体点就是态矢随时间的演化,由此还能引入时间演化算符的概念,就我所知,时间演化算符与薛定谔方程有着一定的联系,并且在TEBD里起着一定的作用暂时了解这么多。

1.最大本征值问题

  最大本征值问题定义为:假设矩阵本征值为实数,求解给定矩阵的最大本征值及其本征态,即给定一个矩阵M,求解归一化向量V使得:
f = ∣ v T M v ∣ \mathrm{f}=\left|\mathrm{v}^{\mathrm{T}} \mathrm{Mv}\right| f=vTMv的值极大化,该最优化问题的解为最大本征态,相应的f值对应最大本征值。
  最大本征值的幂级数求法如下:
lim ⁡ K → ∞ M K = Γ 0 K u ( 0 ) u ( 0 ) T \lim _{K \rightarrow \infty} M^{K}=\Gamma_{0}^{K} u^{(0)} u^{(0) T} KlimMK=Γ0Ku(0)u(0)T
其中 Γ 0 \Gamma_{0} Γ0 u ( 0 ) u^{(0)} u(0)为实对称矩阵M对应的最大的唯一本征值和本征向量,有过线性代数基础的能够很好理解这个。

2.热力学基础

  热力学量即对应物理量的概率平均值,其式子如下:
O ( β ) = ∑ s 1 , s 2 , … P ( s 1 , s 2 , … ; β ) O ( s 1 , s 2 , … ) O(\beta)=\sum_{s_{1}, s_{2}, \ldots} P\left(s_{1}, s_{2}, \ldots ; \beta\right) O\left(s_{1}, s_{2}, \ldots\right) O(β)=s1,s2,P(s1,s2,;β)O(s1,s2,)
其中O是物理值,P是概率,且:
P ( s 1 , s 2 , … ; β ) = e − β E ( s 1 , s 2 , … ) Z P\left(s_{1}, s_{2}, \ldots ; \beta\right)=\frac{e^{-\beta E\left(s_{1}, s_{2}, \ldots\right)}}{Z} P(s1,s2,;β)=ZeβE(s1,s2,)
分号前面的s1,s2……表示状态,后面的 β \beta β表示倒温度,为温度的倒数,Z是配分函数,E是能量,配分函数Z可以理解为归一化因子, Z = ∑ s 1 , s 2 , … e − β E ( s 1 , s 2 , … ) Z=\sum_{s_{1}, s_{2}, \ldots} e^{-\beta E\left(s_{1}, s_{2}, \ldots\right)} Z=s1,s2,eβE(s1,s2,)

3.薛定谔方程

二.基态和哈密顿量期望值的求解对应的最优化问题

这一篇博客是非常水的,因为后面的内容会比较麻烦,而且再看某一篇关于mps的论文遇到了感觉很物理的障碍(想写的东西也写不出来),因此我一直就没有下定决心去好好写一写其他的东西了,我觉得我大概可以鸽了(除非某一天心血来潮再来写一写),前面的东西或许会有一点帮助,而有关薛定谔方程以及其他的一些东西可以参考某个知乎大佬,认真看下去会有一种恍然大悟的感觉(链接)。下一篇的内容将真正涉及到机器学习。

猜你喜欢

转载自blog.csdn.net/l_l_c_q/article/details/108422969
今日推荐