由于工作和学习多涉及到机器学习,所以线性代数的知识自然是少不了的。回顾自己的本科和研究生生涯,数学功底比较扎实的,线性代数相关的一些基础概念如矩阵乘法,相关性,矩阵的秩等等记得很清晰的。但并非那么直观的概念像特征向量、二次型,空间转换相关概念,虽然复习了之后很快能想起来,但过了一段时间之后又会忘掉。确实线性代数比起高等数学和概率论,更加抽象一些,大概是因为现实生活中找不到相近的对照吧,这也是不易记忆的原因。想来还是自己写几篇博客,将抽象的概念用自己的话表述一遍,应该是对自己的记忆有帮助的。既然这些是给自己写的,那么一些繁琐的基本概念如矩阵乘法、行列式等我也就不再复述,我仅仅把自己认为重要的概念讲述一遍。
特征值和特征向量
1. 定义
对于n阶矩阵A,如果存在非零向量 x,以及数(不一定是实数) 使得
成立,则我们称和x分别为矩阵A的特征值与特征向量。
2. 求解
对于 A x,我们显然有,即方程有非零解,所以矩阵行列式必为0
有了上式,我们可以得到一个关于的n元一次方程,如此便可求解。对于一个已知的特征值,求解其对应特征向量转化为方程求解问题
3. 性质
1. 设n阶矩阵特征值为,则我们有(证略)
(i)
(ii)
2. 若是A的特征值,则是的特征值,其中f是多项式函数。证明思路:从定义出发
3. 是A各不相同的特征值(m <= n),则其对应的特征向量线性无关。证明思路:从相关性定义可证
参考文献:
[1] linear algebra (Gilbert Strang)
[2] 线性代数(同济第四版)