What Do We Understand About Convolutional Networks翻译(一)


最近读了篇深度学习综述类的论文,读完对整个深度学习网络会有个新的了解,该论文是在2018年3月23号发表在了arXiv,论文正文部分长达80页,我会将翻译分成几块。

Introduction

1.1 动机

在过去几年中,主要的计算机视觉研究都集中在卷积神经网络上,通常称为ConvNets或CNN。这些效果在广泛的分类和回归任务中产生了新的最先进的性能。相比之下,虽然这些方法的历史可以追溯到若干年,但对这些系统如何实现其卓越结果的理论理解滞后。事实上,目前计算机视觉领域的许多贡献都使用ConvNets作为一个黑盒子,对于它的工作原理有一个非常模糊的想法,从科学的角度来看这是非常不令人满意的。特别是,有两个主要的互补问题:
(1)对于学习方面(例如卷积核),它究竟学了什么?
(2)对于网络设计方面(例如层数,内核数,池化策略,非线性选择),为什么某些选择比其他选择更好?

这些问题的答案不仅可以提高对ConvNets的科学理解,还可以提高它们的实际适用性。

此外,目前ConvNets的实现需要大量的数据用于训练,不同的设计对性能有很大影响。 更深入的理论理解应该减少对数据驱动的依赖。 虽然实证研究调查了网络的运作,但迄今为止,他们的结果主要局限于内部处理的可视化,以了解ConvNet不同层面正在发生的事情。

1.2 目标

本文献将回顾多种卷积网络。重要的是,我们将通过用多种方法来讨论典型的卷积网络的各个组成部分,这些方法的设计基于生物学发现和合理的理论基础。此外,还将通过可视化和实证研究来理解ConvNets的不同尝试。最终目标是阐明ConvNet网络中涉及的每一层的作用,提炼我们目前对ConvNets的理解,并突出不足之处。

1.3 论文大纲

本报告的结构如下:本章的动机是需要回顾我们对卷积网络的理解。第2章将介绍各种多层网络,并介绍计算机视觉应用中最典型的网络。第3章将更具体地关注典型卷积网络的每个结构块,并从生物学和理论角度讨论不同组件的设计。最后,第4章将描述ConvNet设计的当前趋势以及对ConvNet理解的有效性,并强调仍然存在的一些突出不足之处。

猜你喜欢

转载自blog.csdn.net/sysleo/article/details/83148144