【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【6】

上接:

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【1】

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【2】

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【3】

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【4】

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【5】

本篇为总结篇。

事前说明

学无止尽,个人能力不足,如有错误之处烦请见谅,感谢您的阅读与指出!

PS:小伞是一直在学习的唐伞妖怪欧,由于只是一只菜菜的妖怪,所以学习的地方可能会有些不对(||๐_๐),感谢各位大佬的指正!

其实说白了,AI模型训练就是在教孩子。其实也和我们从小学到大学这一路考试过来的经历是很像的。(啊对了,我是伞妖怪捏doge)

数据

想要学会一个东西,你手里的有一些资源和资料,在AI世界就是数据。

而你手里面的资源跟资料很有可能就影响了你看这个世界的方式,进而影响到了你的一些决策和判断,在AI世界里就说明了一个很简单的问题,数据即是一切。

预处理

拿到了数据还不行,还要进行预处理,因为现实中不可能存在一份绝对完美的数据,所以你对他的预处理,本身来讲,也是在影响你的模型训练效果,按现实来看,就是你拿到一些资料之后是怎么样处理这些资料的,例如全篇通读,亦或是精读......数据的易处理会改变数据本身的质量,有时候会起到化朽木为传奇的作用。

reshape

预处理好了数据之后,还要把数据转换为你能看得懂的形式,从AI的角度来讲,就是把数据本身的形状转换为模型可以接受的形状,这就跟你阅读外文书籍,要把它翻译成中文或者是你主动去学英文一样。

模型

然后是模型的选择,用现实的角度上来讲,就是你怎么样选择你的世界观,世界观本身没有好坏之分,但是存在处理的方式不同,不同的处理方式可能在不同的领域面对不同的知识,面对不同的要学习的东西,会有各自的专长。拿AI的角度来讲,决策树大类擅长的东西,人工神经网络不一定很强,面对扯到图相关的东西,普通的神经网络可能不如图神经网络。模型本身不存在好坏优劣之分,但是在固定到同一个赛道上进行讨论的时候,模型之间就有了首选和次选之分,并且如果是对于相同的模型,采用的数据不一样,训练出来的效果也是不一样的。这就好像一个人接触到的信息和眼界,会影响这个人的一生一样。

当然现实世界是不存在监督的,因此我们也没办法说具体这种影响是好是坏。当然在数据科学领域,本来就是模型和数据不断较真的过程,好的数据加上模型,绝大多数情况可干掉坏的数据加模型,但也是存在差的数据,加上强度够高的模型,反杀好的数据加模型的情况。

(因此这个方面谁都说不准不是吗?就好像我在写这篇文章的时候,我正在听受兔+ayo的BGM,我也不知道这个的数据的输入对我的文章输出会有什么影响。)

训练/学习

再来就是训练了,训练的过程有很多种,从现实的角度上来讲,你可以学习完之后立刻去练习,知道自己错在哪里之后再予以改正(从始至终只有一套知识体系)(有监督学习+反向传播)

或者是学习完之后去练习练习,有错题之后再学习这些错题,总结成多个知识结构(有多个知识体系,名字像下面这样《关于对张三的认识》《关于对张三的错误认识的认识》《关于对张三的错误认识的错误认识的认识》......)通过层层套娃使得你面对到相同类型的错题时,就更不容易错了(集成学习+有监督学习,前面讲的一点有误,就是这个过程中不存在反向传播)

或者是在现代大背景下的知识的终身学习(增量学习),或者是学完之后根本不复习(无监督学习),又或者是学完之后只复习存在答案的,没答案的就不复习(半监督学习),也有可能是针对错综复杂信息的学习(带噪学习),或者是两个卷王之间的相互促进(联邦学习)......这些都是学习方法。

小技巧

当然在训练过程中,用现实的角度来讲,就是在学习过程中,你可能还会用一些小技巧,例如把复习的东西攒多一点,再一遍复习(大batch),或者是不复习那些你已经背的滚瓜烂熟的基础知识,复习一些易错的东西(冻结梯度变化不大的单元)......做这些学习方法也会加速你的学习进程,使你一定程度上获得更快的学习速度或者更好的效果。

优化

然后就是模型的优化了,优化通常指的是对那些我们事先人为设定好的一些参数进行的优化,这就好比我们的处在人世之中的一些固有信念,这些信念一般来讲是坚定不移的,但是在接触某个领域的过程中,我们的某些信念或许会动摇(鬼知道是好的信念还是坏的信念),因此也产生出了许许多多的可能性。不同的性格,信念动摇的程度也不一样,好比不同优化器的选用,最终也会塑造出不同的模型。

评估

不知道是什么的话,讲了这么多,接下来就是谈到最后一个评估了。归根到底来讲评估其实是最不公平的。因为他只关注了模型的一部分方面。我们执着的关注模型的正确率,亦或是召回率,竭尽全力的去提升它,但在这方面我们又获得(shi qu)了什么呢?非平均的本身就是所谓的注意,评估的本身就是注意力机制,是专门为我们服务的注意力机制,使得我们更关注模型的某一方面,并竭尽全力的在这个方面去提升它。

讲了这么多这个系列就算是讲完了,感谢大家肯抽出时间阅读小伞的这些见解~

不过毕竟只是个唐伞妖怪罢了( ˉ͈̀꒳ˉ͈́ )✧,或许这些只是博人一吓?

如有讲解错误的地方,烦请指教。我们下个系列再见吧~

或许你也可以关注一下?

End

猜你喜欢

转载自blog.csdn.net/unrealnum_border/article/details/128321603
AI
今日推荐