Hong, B., Wei, L., Hu, Y., Cai, D., & He, X. (2016). Online robust principal component analysis via truncated nuclear norm regularization. Neurocomputing, 175, 216-222.
本文是这篇 Neurocomputing 期刊论文的笔记,主要是对文中的理论方法进行展开详解。本人学术水平有限,文中如有错误之处,敬请指正。
摘要: Robust principal component analyssi (RPCA) 已经被广泛用于处理高维的噪声数据,在许多应用功中。传统的 RPCA 方法考虑所有的样本恢复低维的子空间用批量的方式,导致了昂贵的存储代价并且不能有效地更新流数据的低维子空间。所以有必要设计一种在线的 RPCA 方法。此文中,提出了一种新颖的 online RPCA 算法,采取最近提出的 truncated nuclear norm 作为低秩约束的更好的近似。这里将目标函数按样本分解代价的和,并设计了 online 有效的交替优化方法。
1 简介
在许多机器学习和数据挖掘问题中,经常遇到高维的样本,包含一些噪声(损坏或奇异点)。为了恢复内部的低维子空间,从全部的样本集中, RPCA 被大量地研究,应用于视频监控 1,图像配准 2,文本语料建模 3 和 音频处理 4 。
原理上,典型的 RPCA 方法假设样本可以被分为低秩的部分和稀疏的部分。正式地,给定一个样本
其中
已经被证明低维的子空间可以在合适的条件下,被精确地、有效地恢复。然而,该问题是高度非凸的,不易处理的,因为秩函数和
以上所有的方法都是处理批量数据的。也就是每一次迭代中,所有的样本都是需要使用的,这造成了两种限制。首先,存储代价是昂贵的,需要内存中有所有的样本在优化过程中,尤其是对于大规模数据是不可接受的。另一方面,如果数据是以流的形式获得,这些方法不能有效地处理低维子空间当一个新样本到来时。
为了解决这个问题,online RPCA 方法出现了。内存消耗与样本的规模是无关的,并发现到的低维子空间可以快速更新。另一个重要的 online RPCA 的优势是它可以跟踪动态的低维子空间,当其会随着时间变化时。所以 online RPCA 可以被用于移动摄像头的视频跟踪 8 。Goes et al. 扩展了批量版本的 PRCA 到随机,并提供了一个子线性收敛保证 9,明显地减少了存储的要求和时间复杂度。He et al. 提出了在线自适应子空间跟踪算法基于 Grassmannian 流形 10,其结合了増广 Lagrangian 和经典的随机梯度框架。Mairal 提出了更一般的 在线字典学习机制为了稀疏编码基于随机近似 11 。受到次启发之后,Feng et al. 12 和 Shen et al. 13 尝试用在线方式解决 RPCA 问题。他们分别采用了 核范数和最大范数,作为秩函数的代替,两者都可以被表示为顺序数据的矩阵分解的形式。尽管核范数和最大范数是矩阵的秩函数的凸包络,但是也导致了不能忽视的近似误差,在真实的应用中 14 。所以,一些研究者尝试设计非凸的代替,来实现更精确的近似 15 。
此文的目标是解决解决 RPCA 问题,通过一个在线非凸的优化框架。特别地,此文用最小化一个最近提出的 truncated nuclear norm 16 来代替目标函数,最小化矩阵的秩。此范数也可以被表示为矩阵分解的形式,其提供了思路来估计每一个样本对于 truncated 范数的增量的贡献。基于此,此文提出了一种用新样本更新低维空间的 online 机制。接着设计了一种有效的、迭代优化方法的实现。通过 truncated 范数,此算法的优化可以更接近矩阵的秩,子空间恢复也可以更精确。此文的主要贡献是两方面:
此文提出了一个 online 机制来解决 RPCA 问题,通过采用矩阵的非凸的近似,相比于凸的代替更为精确。
此文设计了一个高效的优化算法解决提出的目标函数。
2 预定义
大写加粗字母表示矩阵,小写加粗字母表示向量。
给定一个矩阵
其中
其中
Lemma 2.1 truncated 范数可以分解为
其中
Proof 对于任意的
另一方面,假设矩阵的奇异值分解
令
该分解将
3 此文提出的算法
此算法的目标是:给定一个
其中
该形式提供了一种解释:每一个样本
其中
从中,可以看出目标函数是样本逐渐累加起来的,给定字典
其中
至此,已经将原优化问题转化为平均代价的最小化问题。其中每一个样本是在已知字典
4 优化
此文采用在线的方式交替地更新变量
其中
其中
更新
令
更新
求解
此函数是 element-wise 的。获得如下的闭式解
更新
使用块坐标下降法更新字典的每一列,令
更新
这是一个正交约束问题,通常是很困难的因为其非凸性质,保证的代价太昂贵在迭代中。这里提出了一个简单、但是有效的算法求解该问题,基于以下法则:
Lemma 4.1 假设
是
Proof 通过假设,
由于
更新
该问题与求解
Algorithm 1 Online RPCA 通过 Truncated nuclear norm
Input: 数据
Initialize: 随机初始化
for
Step 1: 计算
初始化
令
repeat
计算
计算
until 收敛
Step 2 更新
repeat
令
until 收敛 。
end for
Output:
4 实验
此文的实验过于简单。略
- J. Wright, A. Ganesh, S. Rao, Y. Peng, Y. Ma, Robust principal component analysis: exact recovery of corrupted low-rank matrices via convex optimization, in: Advances in Neural Information Processing Systems, 2009, pp. 2080–2088. ↩
- Peng, Y., Ganesh, A., Wright, J., Xu, W., & Ma, Y. (2012). RASL: Robust alignment by sparse and low-rank decomposition for linearly correlated images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(11), 2233-2246. ↩
- Min, K., Zhang, Z., Wright, J., & Ma, Y. (2010, October). Decomposing background topics from keywords by principal component pursuit. In Proceedings of the 19th ACM international conference on Information and knowledge management (pp. 269-278). ↩
- Huang, P. S., Chen, S. D., Smaragdis, P., & Hasegawa-Johnson, M. (2012, March). Singing-voice separation from monaural recordings using robust principal component analysis. In Acoustics, Speech and Signal Processing (ICASSP), IEEE International Conference on (pp. 57-60). ↩
- Lin, Z., Chen, M., & Ma, Y. (2010). The augmented lagrange multiplier method for exact recovery of corrupted low-rank matrices. arXiv preprint arXiv:1009.5055. ↩
- Shang, F., Liu, Y., Cheng, J., & Cheng, H. (2014, November). Robust principal component analysis with missing data. In Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management (pp. 1149-1158). ↩
- Tao, M., & Yuan, X. (2011). Recovering low-rank and sparse components of matrices from incomplete and noisy observations. SIAM Journal on Optimization, 21(1), 57-81. ↩
- Feng, J., Xu, H., & Yan, S. (2013). Online robust pca via stochastic optimization. In Advances in Neural Information Processing Systems (pp. 404-412). ↩
- Goes, J., Zhang, T., Arora, R., & Lerman, G. (2014). Robust Stochastic Principal Component Analysis. In AISTATS (pp. 266-274). ↩
- He, J., Balzano, L., & Lui, J. (2011). Online robust subspace tracking from partial information. arXiv preprint arXiv:1109.3827. ↩
- Min, K., Zhang, Z., Wright, J., & Ma, Y. (2010, October). Decomposing background topics from keywords by principal component pursuit. In Proceedings of the 19th ACM international conference on Information and knowledge management (pp. 269-278). ACM. ↩
- Feng, J., Xu, H., & Yan, S. (2013). Online robust pca via stochastic optimization. In Advances in Neural Information Processing Systems (pp. 404-412). ↩
- Shen, J., Xu, H., & Li, P. (2014). Online optimization for max-norm regularization. In Advances in Neural Information Processing Systems (pp. 1718-1726). ↩
- Recht, B., Fazel, M., & Parrilo, P. A. (2010). Guaranteed minimum-rank solutions of linear matrix equations via nuclear norm minimization. SIAM review, 52(3), 471-501. ↩
- Srebro, N., Rennie, J. D., & Jaakkola, T. S. (2004, December). Maximum-Margin Matrix Factorization. In NIPS (Vol. 17, pp. 1329-1336). ↩
- Zhang, D., Hu, Y., Ye, J., Li, X., & He, X. (2012, June). Matrix completion by truncated nuclear norm regularization. In Computer Vision and Pattern Recognition (CVPR), IEEE Conference on (pp. 2192-2199). ↩