随机非线性问题的随机方法

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/sinat_38918949/article/details/72730934

因为做本科毕业论文,所以看了一些关于随机规划的论文,与大家分享。

最近看了中科院大学王晓老师发表在SIAM上的一篇关于随机惩罚方法的论文,主要讲随机惩罚逼近方法,名字是Penalty methods with stochastic approximation for stochastic nonlinear programming。

随机规划问题在应用方面可以用来最小化机器学习中的损失函数等等一些。

随机非线性规划问题可以根据目标函数的形式分为两类,一类是目标函数可以直接写出来的,例如最小化一个函数 f(x)=x2+1 ,在这里f是有确切的、明确的表达式的;另一类是我们不知道目标函数的确切表达式,这意味着我们不知道目标函数的在某个点(例如点 x 处)的函数值和梯度值。但是,可以知道的信息是,目标函数在点x处的噪声函数值(噪声零阶信息)和噪声梯度值(噪声一阶信息)。这里的噪声,理解为带有扰动的。得到噪声函数值和噪声的方法是通过随机零阶/一阶预测(stochastic zero-th/first order oracle,简称 SZO/SFO )。这里的 SZO/SFO ,理解为一个黑箱子,输入一个点 xk ,输出一个噪声函数值 F(xk,ξk) 或者噪声梯度 G(xk,ξk) 值,其中 ξk 是一个随机变量。

目标函数有了之后,看约束条件。根据是否有约束条件可以把非线性规划问题分为两类,一类是无约束问题,一类是有约束问题。在这篇paper中主要考虑有等式约束的非线性规划。

确定性条件下的惩罚方法就不在此详细说了。与确定性问题的解决问题的思路是一致的,把噪声梯度值当成是精确梯度值来计算,迭代的过程选择了交替下降法(在其他相关paper中有其他算法)。首先,第一步是构造子问题,也就是最小化{目标函数+惩罚函数与约束等式的复合函数},解决了这个问题之后,在一定的终止条件基础上终止这个过程。

上面一段就是这个过程的精简版叙述,问题是随机的,解决方法的随机性体现在这里:“把噪声梯度值当成是精确梯度值来计算”这个过程中,将噪声梯度值算m次平均,然后最小化子问题的时候,取随机的迭代次数。

先写这么多吧,回头再更。

猜你喜欢

转载自blog.csdn.net/sinat_38918949/article/details/72730934