Cs231n课堂内容记录-Lecture 5 卷积神经网络介绍

Lecture 5 CNN

课堂笔记参见:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit

不错的总结笔记:https://blog.csdn.net/sugar_girl/article/details/79108709

1.卷积核步长公式:(N-F+2*padding)/stride+1=new_N   

    N:原图形宽,F:filter宽,padding:填充宽度

2.卷积核参数公式:5*5*3的10个filter:5*5*3+1(权重加上偏置,一个卷积核对应一个偏置,相当于一次wx+b运算),然后76*10

3.有时候我们会使用1*1卷积核,这样做就是在深度上进行点积。

4.步长跟图像的分辨率有关,当我们使用较大的步长,得到的图片就是一个下采样的结果,可以说等同于一种池化处理,但有时候比池化的效果更好。

5.步长跟图像的分辨率有关,当我们使用较大的步长,得到的图片就是一个下采样的结果,可以说等同于一种池化处理,但有时候比池化的效果更好。

6.选用最大池化的原因:卷积结果的每一个值都表示该卷积区域对应神经元的激活程度,或者该位置经卷积核处理后的激活程度。那么最大池化就表示,这组卷积核在图像任意区域的激活程度(能达到的最大值)。在目标检测任务中,最大池化是最直观的,它能将图像最显著的特征凸显出来。

7.全连接层的作用可以理解为回到了之前的朴素神经网络进行分类,我们不再需要空间结构,将卷积得到的结果一维展开然后进行评分和分类。

8.训练CNN的demo网页:

   同样很好用,优点是将各层output以及filter可视化了,整个界面很友好。

   https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html

猜你喜欢

转载自www.cnblogs.com/yun-an/p/10178139.html
今日推荐