【线性代数】Linear Algebra Big Picture

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/TonyShengTan/article/details/81628291

Abstract: 通过学习MIT 18.06课程,总结出的线性代数的知识点相互依赖关系,后续博客将会按照相应的依赖关系进行介绍。(2017-08-18 16:28:36)
Keywords: Linear Algebra,Big Picture

开篇废话

废话不多说,网易公开课有MIT 18.06的课程翻译,MIT OCW提供相关练习,如有需要都可以进行下载。
Gilbert Strang教授的讲授能够让大多数人入门,掌握这门课的大部分内容。
本课程教材使用的也是professor Strang的书籍,很遗憾,中国目前好像没有销售。
18.06的最大一个优点就是让你知道,你还不是特别笨,线性代数也没有大学老师讲的那么难。

关系图

知识图:

此图由Graphviz生成,相关项目见:
Github:https://github.com/Tony-Tan/MachineLearningMath

总结

线性代数是机器学习的基础数学之一,之前看到知乎上有一段话总结:

基本和我的一些思想不谋而合,很中肯,但是社会浮躁,能安心学习基础的人少之又少。
必须承认的是Professor Strang的讲授是非常有帮助的,如果有幸能见到其本人,我一定会给他鞠个躬,问一句老师好的。
后面线性代数部分的博客基本按照关系图一层一层的啃下去,不会特别长,但是知识点尽量做到环环相扣,欢迎关注。
完整目录整理如下:
- 1.0 向量
- 1.1 线性组合
- 1.2 点乘和长度
- 2.1 Ax=b
- 2.2 消元
- 2.3 消元和矩阵
- 2.4 矩阵计算
- 2.5 逆
- 2.6 LU和LDU分解
- 2.7 映射与排列
- 3.1 向量空间
- 3.2 Null 空间
- 3.3 秩
- 3.4 Ax=B
- 3.5 线性独立,基和维度
- 3.6 四个空间的维度
- 4.1 四个子空间的正交
- 4.2 投影
- 4.3 最小二乘(略)
- 4.4 正交基和Gram-Schmidt算法
- 5.1 行列式的性质
- 5.2 排列和代数余子式
- 5.3 Cramer’s 法则,逆和体积
- 6.1 特征值介绍
- 6.2 矩阵对角化
- 6.3 微分方程应用(略)
- 6.4 对称矩阵
- 6.5 正定矩阵
- 6.6 相似矩阵
- 6.7 奇异值分解
- 7.1 线性变换思想
- 7.2 线性变换的矩阵
- 7.3 对角化和伪逆

猜你喜欢

转载自blog.csdn.net/TonyShengTan/article/details/81628291