让我有收获的从零开始的人工智能 深度学习 计算机视觉 教程集合帖

0  如果你觉得这个页面广告太多,请点击下面教程(我写的)去广告

https://blog.csdn.net/u013249853/article/details/79814508

这个广告是这个网站自己放的,很影响专注程度,所以如果你比较常用线上学习,推荐去掉广告一劳永逸,不然很分散注意力的,降低学习效率。

1  网络拆分,一个网络里面有什么,作用是什么

那啥,你可能不想看我的读后感,或者评价或者总结,或者是废话,那你可以等我出完完全版整个单纯的链接。教程是这样的,你作为基础的,最先看得必须是最权威的东西,这个给你打基础,然后你看不明白,再去看看别人是怎么理解的。所以知识的一手资源是论文,其次是论文作者,或者权威教授写的书,然后是一些大神的产物比如视频,博客,这个知识被咀嚼这么多遍,变得容易理解,教学技巧性更强,更有说服力,走入了大众视野,就成了各种普通人,比如我,的博客。越往下走,越可能产生错误,因为博客主人会加入自己的理解,除非他是转载,所以有可能出错,毕竟没有经过论文审核,出版审计。比如我,通常不会通读自己写的东西第3遍。

怎么找这些东西,一般情况下,你看的教程都会推荐,比方说下面的图片提到的note


所以推荐的推荐,越高越难,越学术,越理论。

所以打基础的看官务必不要忽视权威的重要性,不要在csdn上闲逛,看到什么都觉得说得对,事实上,我看到过不少错误,小错,虽然我不会,但我能推啊。所以大家学习的时候一定要先建立一个基础概念,比方说上个课,网易云课堂,coursera,英文好可以上油管,我下面推的那个油管andrew wang的视频就是cousera的。很基础,很短,很直观。


之后,你再去随意浏览一些博客,看看别人怎么想的。不论你看什么一定要质疑,即使是大牛论文,虽然最后结果一定人家对,自己没理解好,那你这不就加深理解,查漏补缺,揪出自己的bug了吗。你在找别人问题的时候一定是思考轮子转的最快的时候,真的。

1.0   基础知识,从零开始

30分钟明白深度学习怎么学习的,权重是什么,什么是梯度下降,损失怎么计算的。油管播放量60多万的视频,很社会了。那么或许你已经看过一些书和论文,甚至能够搭建自己的网络,但我还是看了,觉得有所收获。

https://www.youtube.com/watch?v=ILsA4nyG7I0

图像的基本单位是像素,显示为一个一个小方格,数值是0-255,0是灰色的。如果是彩色,那么有三个通道。每个位置确定好颜色,就是一张图片了。每个位置的数值,或者是单值,比如23(灰度图像只有黑白),或者是一个三维的,(23,34,255)(彩色图像)。

看不明白的话就暂停,想一想,或者多看几遍。记点笔记。

推荐在油管看,用自动生成字幕,作者母语英语,自动生成大部分都很准。下面是B站地址,不用科学上网也能上:

https://www.bilibili.com/video/av14095273?from=search&seid=10011126792909487890

点击设置键打开字幕,视频右下角,第二个小齿轮,上面有鲜红色的HD,如下图:


推荐在油管看,用英文字幕,油管自动翻译我没试过,不过谷歌的自动翻译很不错的。

26分钟搞清楚卷积神经网络是什么,卷积怎么卷,能干啥。30多万播放量

https://www.youtube.com/watch?v=FmpDIaiMIeA&feature=youtu.be

http://brohrer.github.io/how_convolutional_neural_networks_work.html

下面是B站地址:

https://www.bilibili.com/video/av19231561?from=search&seid=13469907213316774113

1.1  激活函数

默认每层之间都有relu

当你计算完卷积了,你要形成新的一层了,这个时候,桥豆麻袋!!你还没用激活函数呢,你的新网络每个像素的值有正有负,大于零的原样输出,小于零的统统归零。简单直观。你就是拿个筛子,筛掉小于零的部分。嗯这就是Relu这种激活函数。还有其他种的,可以在下面的教程里面找到。不过现在都用relu。

入门简单易懂:但是我没看明白什么叫神经元死了(ReLU)

https://www.jianshu.com/p/22d9720dbf1a

在第一篇的基础上往广度拓展,但是没有拓展深度,同样没有解释什么叫神经元没反应了,具体到feature map与conv层上,不过我们可以明确的是小心设置比较小的learning rate会让节点不轻易死掉

https://blog.csdn.net/cyh_24/article/details/50593400

很有趣的补充,涉及到人脑神经元的特性,稀疏性,单侧抑制,宽阔的阈值边界

http://www.cnblogs.com/neopenx/p/4453161.html

我觉得稀疏性可能对应我们人类这么一个现象,我们不会记住耳机的具体形状,我们只有注意力集中的时候才能学习,我们只有思考的时候才有收获,或者及水到渠成的灵光一闪。于是我们的意识可以控制我们的神经元。比如你扫一眼桌子,别说话,扫。





你闭上眼睛,你不会记住你看到了什么,你眼睛的焦点不会自动对准每一个物体。但是如果你有目的扫过,你会发现,你桌子上的东西存在感比之前要强。呃,不过可能你的桌子比较整齐,没有我这么深的感触。

至于稀疏激活,我认为是数值小于阈值的就让他等于0,这样我如果设置一个比较高的阈值,那么大部分都会被一致,也就是等于零。


这里再说下他所说的信息解离,信息之间是有相关性的,特征向量就是信息,你一次采集了很多特征向量,任何一条信息都不能被其他信息线性组合表达,那么就是线性无关,如果我们做的是非线性处理,让我的数据之间不仅线性无关,完全就是无关。这个时候,信息的表达是最简介,少,且有价值,简直黄金信息。如果把这些相互牵连的冗余噪声比作赘肉的话,大概就会很重视它了。相信这个谁都不陌生,多少都听过。非常感兴趣可以看下多媒体技术,信息熵。

1.2 BN batch normalization 归一化

普通的机器学习归一化作为基础

https://blog.csdn.net/qq_28618765/article/details/78221571

把归一化应用与网络

https://blog.csdn.net/hjimce/article/details/50866313

2.流行网络举例

2.1   ResNet

1.第一个链接我给youtube,由于我在看Andrew Wang的CNN视频,里面提到了ResNet网络可以在加深网络的时候不回弹识别率,因为一般网络深度超过一个程度,错误率会上升。

https://www.youtube.com/watch?v=GSsKdtoatm8

2.给妹纸的深度学习教学(4)

https://zhuanlan.zhihu.com/p/28413039


这个右边的是针对网络变深,这时通道变多,那么我们可以先拧出水分,拿64个通道来稀疏一下,这个感觉,类似主成分分析,然后再用3*3大小的卷积模板开始提取特征。之后我们再给他还原回去

3.解决梯度消失

https://zh.gluon.ai/chapter_convolutional-neural-networks/resnet-gluon.html

前面两个都没有说为什么残差网络好,或者说没有解释道这个点,梯度消失。应该和之前的死掉的神经元不是一个概念。

4.作者本人看了论文也写了一篇笔记,比较严谨全面,不会我不瞎说

不太好意思的也推荐一下我写的笔记



猜你喜欢

转载自blog.csdn.net/u013249853/article/details/79918880