最优化理论·非线性最小二乘

版权声明:本文为博主原创文章,如需转载,请注明出处:http://blog.csdn.net/tina_ttl https://blog.csdn.net/tina_ttl/article/details/56833251

最优化理论·非线性最小二乘

标签(空格分隔): 数学

非线性最小二乘问题是椭圆拟合中最易遇到的优化问题,本文主要对非线性二乘的基本分析做简单介绍

1. 什么是最小二乘问题

目标函数能够写为m个函数平方和的优化问题
image_1b9mpol4t1ffa1sa7149fvki1f8r9.png-3.9kB

其中,每个函数 fi(x) 都是待优化向量 x 的函数。

2.非线性最小二乘问题

  • fi(x) 是关于 x 的非线性函数时,即为非线性优化问题
  • 此时,需要利用Taylor一阶展开近似 fi(x)

2.1 fi(x) 的一阶近似

  • x(k) 是解 x 的第k次近似,在此处将 fi(x) 进行一阶展开,并令一阶展开值为 φi(x)
    image_1b9mq7ee61c1eidj1jb18321rks13.png-5.5kB

  • 对上式进行整理,得到
    image_1b9mq8hb314qidrut5be9c1e811t.png-1.3kBimage_1b9mq8c8ne81ecj1rt61lmea701g.png-6.3kB

  • 可以看到,一阶近似 φi(x) 是关于待优化向量 x 的线性函数:

    • image_1b9mqb7381ne01jlm1kpktt4ukj2n.png-2.1kB fi(x) 的梯度【 fi(x) 对向量x求导】在 x(k) 处的取值
    • image_1b9mqbes816q4mql1rda1ukp2se34.png-1.8kB fi(x) x(k) 处的取值

2.2 F(x)的近似

在得到 fi(x) 的一阶近似后,便可以计算得到F(x)的一阶近似,该一阶近似为 Φ(x)
image_1b9mqgscc1csg8v9lpeed1rls3h.png-4kB

image_1b9mqui2hvj316pv4en17oo1s9n3u.png-95.3kB

2.3 分析 Φ(x) 的具体形式

  • 将平方和形式写为行向量、列向量乘积形式

    Φ(x)=[φ1(x),φ2(x),φm(x)]φ1(x)φ2(x)φm(x)

  • φi(x) 的具体形式代入

    φ1(x)φ1(x)φ1(x)= f1(x(k))Tx[f1(x(k))Tf1(x(k))] f2(x(k))Tx[f2(x(k))Tf2(x(k))] fm(x(k))Tx[fm(x(k))Tfm(x(k))]

  • 继续整理得到

    φ1(x)φ2(x)φm(x)= f1(x(k))T f2(x(k))T fm(x(k))Tx f1(x(k))T f2(x(k))T fm(x(k))Tx(k)+ f1(x(k)) f2(x(k)) fm(x(k))

  • 引入 Ak b !!!!!!
    image_1b9mtkueb1elmmeb14853a8136m6c.png-22.5kB
    image_1b9mtlpisfl57o21s0n1gmm1h3e6p.png-14.8kB
    其中:image_1b9mtn9hg1pqcr1hq8tv57178r76.png-9.1kB

  • 则有

    φ1(x)φ1(x)φ1(x)=Akxb

  • 那么,目标函数 F(x) 的一阶近似 Φ(x) 的简洁形式为

    Φ(x)=(Akxb)T(Akxb)

    它为标准的线性最小二乘问题

2.4 转化为线性最小二乘后的分析

Φ(x)=(Akxb)T(Akxb)

  • 一阶近似得到的优化问题就是线性最小二乘问题,可以利用最小二乘问题求解,直接求解梯度为0的点,即目标函数在 x(k) 处的最小值点应该满足如下线性方程的解
    image_1b9ms62kv94a1bsaue61recncl4b.png-3.7kB
  • AK 为列满秩时,以上方程的解如下
    image_1b9ms9mvo1c791dn1bqd1a8l1mtd4o.png-4.3kB
    这里注意,利用上述方法求得的最优解为目标函数在 x(k) 处的一阶近似最小值,不能作为全局最优解,只能说明在局部向最优解点又进一步走近了,记为 x(k+1)

image_1b9mt13se16tb1b1rjhd55oj4i55.png-46.4kB

2.5 对 x(k+1) 更新等式进一步分析化简

image_1b9mtamt9sh919kf1imq1srtivh5i.png-14.1kB

即有:

image_1b9mtbf7mt6ssjiu91u0nit25v.png-5.4kB

  • Hk 是目标函数 F(x) 的一阶近似函数 Φ(x) 的Hessian矩阵,即可以说是目标函数 F(x) 的近似Hessian矩阵
  • Ak 是目标函数 F(x) 的梯度矩阵

注意:按照这里的推导,可以通过一步步迭代计算 x 的最优值,这种方法可以称之为Gaussian-Newton方法,但仔细观察发现,当近似Hessian阵奇异或者近似奇异时,以上算法无法使用!也就引出了著名的LM算法


猜你喜欢

转载自blog.csdn.net/tina_ttl/article/details/56833251