AI学习--线性代数基础

说明

AI学习这个章节主要记录学习人工智能相关内容的学习笔记和自己的一点理解。以前学习的时候不爱作笔记,觉得就算抄一堆笔记自己大抵写不会去看,白白浪费纸墨罢了。其实这个观点大错特错,只不过是给自己的懒找一个借口罢了。

其实好的笔记一定不仅仅是照本宣科的抄下来的。能把书上的几万字精简到几千几百甚至几十个字,这里的一定少不了思考,说你懒惰不是说你懒得动手写那写字,而是说懒得思考,这才是最可怕的。我认识的人里有开会从来不带纸笔的,但是他的思考一直没有停过,总结归纳提问解答,这些都是思考的过程中,这才是学习最重要的部分。一味追求写上满满十几页纸,也是本末倒置了。

所以在这里把平时学习的一些东西总结下作为博客输出,主要目的是帮助自己养成学习笔记的习惯。也希望我的笔记能够越来越好,最后真正能够帮助到别人。


线代基础

  • 1.线性代数是用虚拟数字世界表示真实物理世界的工具。
    1. 标量、向量、矩阵、张量(tensor)的递进关系。
Name 定义 计算机存储 举例 相关名词
标量 单独的数 零维数组 自然数(1) 复数
向量 标量组成的序列 一维数组 语音信号(1*3) 范数
矩阵 向量组成的集合 二维数组 灰度图像(3*3)
张量 向量组成的矩阵 三/多维数组 RGB图像(3 *3 *3)
  • 3.范数

    • L1范数:向量中元素的绝对值和。
    • L2范数:表示向量长度。
    • L∞范数:向量中最大元素的取值。
  • 4.线性空间

    • 由(有限或者无限个)相同维度的向量组成定义了加法和数乘等结构化运算集合,称之为线性空间;
    • 定义了内积运算线性空间,称之为内积空间。
  • 5.内积

    • 内积表示向量间的关系,表示向量间的相对位置,也就是夹角。
    • 一种特殊情况下内积为0,在二维空间上表示夹角为90度,即相互垂直;在高维空间上,这种关系称之为正交。两个向量正交表示他们线性无关,相互独立,互不影响。
  • 6.在线性空间中,任意一个向量代表的都是n维空间中的一点;反过来,空间中任意点也都可以唯一的用一个向量表示。

  • 7.在内积空间中,一组两两正交的向量构成这个空间的正交基。假若正交基中基向量的L2范数都是单位长度1,这组正交基就是标准正交基。正交基不唯一。

  • 8.点的变化对应着向量的线性变换,而描述对象变化抑或是向量变换的数学语言,正是矩阵。矩阵也可以用来描述坐标系。

  • 9.线性空间中的变化

    • 表示变化的矩阵 * 对象(向量),描述点的变化
    • 表示变化的矩阵 * 表示原始坐标系的矩阵,描述坐标系的变化
  • 10.矩阵特征

    • 特征向量,描述了变化的方向
    • 特征值,描述了变化的速度

猜你喜欢

转载自blog.csdn.net/weixin_34242509/article/details/87098113
今日推荐