迭代法(逐次逼近法)

迭代法(逐次逼近法)
在线性代数中我们常看到方程组被写为这样的形式:
A x = b Ax=b
其中A是非奇异矩阵(行列式不等于0)。本科阶段,我们求解的方程组阶数都不高,一般使用主元消去法求解。但对于A的阶数很大,而且零元素很多的大型稀疏矩阵方程组,例如,训练一个包含几十MB乃至几百MB的数据集时,主元消去法就显得力不从心了,而一般要选用逐次逼近法(或称为迭代法)求解。
为了便于说明,下面我们举一个求解线性方程组的迭代法例子。
{ 8 x 1 3 x 2 + 2 x 3 = 20 4 x 1 + 11 x 2 x 3 = 33 6 x 1 + 3 x 2 + 12 x 3 = 36 \left\{\begin{array}{l}{8 x_{1}-3 x_{2}+2 x_{3}=20} \\ {4 x_{1}+11 x_{2}-x_{3}=33} \\ {6 x_{1}+3 x_{2}+12 x_{3}=36}\end{array}\right.
如果记为Ax=b,其中:
A = [ 8 3 2 4 11 1 6 3 12 ] x = [ x 1 x 2 x 3 ] b = [ 20 33 36 ] A=\left[\begin{array}{ccc}{8} & {-3} & {2} \\ {4} & {11} & {-1} \\ {6} & {3} & {12}\end{array}\right] \quad x=\left[\begin{array}{c}{x_{1}} \\ {x_{2}} \\ {x_{3}}\end{array}\right] \quad b=\left[\begin{array}{c}{20} \\ {33} \\ {36}\end{array}\right]
方程组的精确解是:
x = ( 3 , 2 , 1 ) T x^{*}=(3,2,1)^{\mathrm{T}}
如果记为另一种形式:
{ x = B 0 x + f x 1 = 1 8 ( 3 x 2 2 x 3 + 20 ) x 2 = 1 11 ( 4 x 1 + x 3 + 33 ) x 3 = 1 12 ( 6 x 1 3 x 2 + 36 ) \left\{\begin{array}{c}{x=B_{0} x+f} \\ {x_{1}=\frac{1}{8}\left(3 x_{2}-2 x_{3}+20\right)} \\ {x_{2}=\frac{1}{11}\left(-4 x_{1}+x_{3}+33\right)} \\ {x_{3}=\frac{1}{12}\left(-6 x_{1}-3 x_{2}+36\right)}\end{array}\right.
转换为矩阵的形式:
B 0 = [ 0 3 8 2 8 4 11 0 1 11 6 12 3 12 0 ] f = [ 20 8 33 11 36 12 ] B_{0}=\left[\begin{array}{ccc}{0} & {\frac{3}{8}} & {\frac{-2}{8}} \\ {\frac{-4}{11}} & {0} & {\frac{1}{11}} \\ {\frac{-6}{12}} & {\frac{-3}{12}} & {0}\end{array}\right] \quad f=\left[\begin{array}{c}{\frac{20}{8}} \\ {\frac{33}{11}} \\ {\frac{36}{12}}\end{array}\right]
任取初始值,例如取 x ( 0 ) = ( 0 , 0 , 0 ) T x^{(0)}=(0,0,0)^{\mathrm{T}} 。将这些值代入公式(5)右边,即求得方程组的第一次迭代方程组的解,得到新的值。
x ( 1 ) = ( x 1 ( 1 ) , x 2 ( 1 ) , x 3 ( 1 ) ) T = ( 2.5 , 3 , 3 ) T x^{(1)}=\left(x_{1}^{(1)}, x_{2}^{(1)}, x_{3}^{(1)}\right)^{\mathrm{T}}=(2.5,3,3)^{\mathrm{T}}
再将 x ( 1 ) x^{(1)} 的分量代入公式(5)右边得到 x ( 2 ) x^{(2)} 。反复利用这个计算程序,得到一个向量序列和一般的计算公式(迭代公式)简写为:
x ( k + 1 ) = B 0 x ( k ) + f \boldsymbol{x}^{(k+1)}=\boldsymbol{B}_{0} \boldsymbol{x}^{(k)}+\boldsymbol{f}
其中k为迭代次数(k=0,1,2,…)。
迭代10次之后得到:
x ( 10 ) = ( 3.000032 , 1.999838 , 0.9998813 ) T x^{(10)}=(3.000032,1.999838,0.9998813)^{\mathrm{T}}
误差向量范数:
ε ( 10 ) = 0.000187 ( ε ( 10 ) = x ( 10 ) x ) \left\|\varepsilon^{(10)}\right\|_{\infty}=0.000187 \quad\left(\varepsilon^{(10)}=x^{(10)}-x^{*}\right)
代码实现:

import numpy as np
from numpy import linalg
import matplotlib.pyplot as plt

A = np.mat([[8,-3,2],[4,11,-1],[6,3,12]])
b = np.mat([20,33,36])
result = linalg.solve(A,b.T)
print(result)

# 迭代法
B0 = np.mat([[0,3/8,-2/8],[-4/11,0,1/11],[-6/12,-3/12,0]])
f = np.mat([20/8,3,3])
# x = B0x+f.T
error = 1.0e-10 # 误差阈值
steps = 100 # 迭代次数
xk = np.zeros((3,1)) #初始化值
errorlist = []
for k in range(steps):
    xk_1 = xk # 上次的xk
    xk = B0*xk+f.T # 本次的xk
    errorlist.append(linalg.norm(xk-xk_1)) # 计算存储误差
    if errorlist[-1] < error: # 判断误差是否小于阈值
        print(k+1) # 输出迭代次数
        break
print(xk) #输出结果

# 误差收敛散点图
plt.plot(range(1,26),errorlist,'o')
plt.show()

输出:

[[3.]
 [2.]
 [1.]]
25
[[3.]
 [2.]
 [1.]]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-iuI1Zzvg-1574393939204)(C:\Users\Administrator\Desktop\11111.png)]
摘自:《机器学习原理与算法实践》

发布了50 篇原创文章 · 获赞 19 · 访问量 3万+

猜你喜欢

转载自blog.csdn.net/qq_28368377/article/details/103198842