深度学习与计算机视觉学习笔记01-线性变换和非线性变换

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/vivizhangyan/article/details/81009344

1.线性变换
(1)两个基本性质
a.加性:两个向量的和经过变换后等于两个向量变换后的和
b.齐性:一个向量缩放一个倍数变换等于先变换再缩放一个倍数
(2)点积和投影
a.点积::通俗意义上的内积,表示两个向量对应元素的乘积,是欧几里得的标准内积。由此可知向量的长度公式为
这里写图片描述
对于点积的理解可以从变换和缩放角度加以分析,可以表示一个倍数对另一个量的拉伸或者缩放。由此可以引申到点积的几何意义,一个向量u在另一个向量v方向上的分量长度,和v的长度相乘得到的值叫做点积。其中向量u在向量v上分量的长度,称为u在v上的投影(标投影)
u*v=|u||v|cosθ
**注意:两个向量夹角的cos值可以表示两个向量的相似性

2. 机器学习中常用的是矩阵乘法(矩阵和向量相乘)的几何意义
(1)矩阵A和向量b相乘可以看作矩阵A的每一行的行向量a_i和向量b的点积后的新向量,同时可以理解为向量b在a_i向量的投影,再乘以a_i自身的长度。
(2)坐标映射角度
位置映射角度理解矩阵乘法:可以认为第i维度的单位向量,变换后就是对应变换矩阵的第i 列的列向量。(任何矩阵乘法的变换,可以理解为对变换前的区域进行旋转和沿特定方向缩放结合在一起的操作,如果希望变换后坐标有一定位移,只需要在变换后的结果加一个位移向量(偏置))*加上的位移向量偏置是机器学习中的一个参数。
由此可以y=Ax+b的变换也是机器学习中的变换,称为仿射变换(仿射变换就是一个线性变换接着一个位移)加入偏置后,导致不再是线性变换,通常是将y=Ax+b转换为y=Ax的形式,表现为在向量x的末尾添加1。
(3)本征向量和本征值(特征向量和特征值)
Ax=λx
λ是A的本征值,x为对应的本征向量。本征向量表示向量x经过变换后这个向量并没有发生方向上的变化。变换A会将对应的本征向量方向上的向量进行缩放,缩放倍数就是本征值。
(4)正定矩阵:(对应的变换是沿着本征向量的方向进行缩放)
a.对于任意非零向量x和一个对称矩阵A,若x^TAx>0,则矩阵A 为正定矩阵
b.几何意义,一个向量经过正定矩阵变换后和自身的点积大于0。
(5) 旋转和拉伸角度理解矩阵乘法
a.奇异值分解(翻转-缩放-翻转)
总结
1.矩阵会对空间进行缩放,沿着特定方向进行缩放,比如投影(对应向量分量),比如正定矩阵(沿着本征向量)等。线性变换再加入平移向量,就变成仿射变换。在同一维度下,仿射变换有些特性会发生变化,比如长度,面积,角度和距离等,但是有些量保持不变,线性可分或者线性不可分性质,直线平行性质。
低维度变换到高维度不会破坏线性可分性,相反的话会改变线性可分性。
2.对于线性不可分问题,可以采用解决思路
a.先做仿射变换,再考虑非线性变换

猜你喜欢

转载自blog.csdn.net/vivizhangyan/article/details/81009344