机器学习入门(一)

  上大学的时候人工智能火了一段时间(虽然现在还是虚假的繁荣现象),但是不得不说人工只能肯定是未来的发展方向,所以我们就有必要了解其基本的理论原理,当然了我写出来的东西肯定不会和数学特别相关,因为我概率论差啊,那段时间沉迷游戏,然后60多分飘过,所以各位肯定是比我牛逼的。我参考的书籍是《机器学习及实践》范淼 李超编著

  基础理论:

    1.Logistic函数,其实就是类似于电流脉冲,只不过中间的跳变是过度的(正半轴图像类似于根号函数,0附近斜率大),上下界是+1和-1,然后就有了当x=0的时候,y=0.5,在x左边,y很快远小于0.5,右边y就很快大于0.5于是就把y分成了两类

    2.支持向量机,比如在平面坐标轴的第一象限里有两部分聚集的点,这些点可以使用一条直线y = kx +b来将这两种点分开,那么这种方式就叫支持向量机

    3.朴素贝叶斯,概率论太差没看懂,,,哪位给推荐比较好的概率论课啊?

    4.K近邻算法(以点为例,红点和蓝点),就是看这个待测样本点,如果这个点附近的K(K使我们设置的)个点都是红点,那么将这个点归类为红点,否则归类为蓝点

    5.决策树,这个好像就是数据结构里面的树,深究的话还有什么特征点的选取顺序,度量方式有信息熵和基尼不纯性,不过,入门,入门,这些应该初中生都能听得懂.

    //以上是监督学习经典模型

    //以下是无监督学习经典模型

    1.k均值算法比较复杂(以一维点们为例,有几簇点),可以分为四个阶段

      第一阶段:随机布设K个特征空间内容的点作为初始的聚类中心(假设有三堆点,一堆红点,一堆蓝点,一堆黄点,那么这里就有了三个聚类中心,这里的K可以多找几个)

      第二阶段:从K个聚类中心中找到距离最近的一个,并且把该点标记为从属于这个聚类中心

      第三阶段:在所有的数据都被标记过聚类中心后,根据这些重新分完簇的点再进行计算

      第四阶段:如果上面得到的结果和上一次分配的类簇一样,算法结束,否则跳到第二阶段继续执行

    2.特征降维:听说过降维打击吗???比如说一个妹子,然后我们用二向箔将她搞到二次元,然后她就可以变成你们老婆了,嗯……所以这个特征降维就是通过一个函数(二向箔)将一个高纬的物体(妹子)映射到低维(你们的二次元)的一种算法

猜你喜欢

转载自www.cnblogs.com/tell-me-why-not/p/9533421.html