研究生不知道怎么看论文?赶紧把学长的经验码起来

如何读论文

选paper

  • 根据名称、来源、年份、作者、引用数,选取最新的,最有影响力的paper。
  • 名称决定了内容相关性
  • 来源决定了paper质量
  • 年份决定了paper的新颖程度
  • 作者有时候决定了任务的一系列成果
  • 引用数决定了paper的影响力。

读paper

要“主动”的读paper!!!
要“主动”的读paper!!!
要“主动”的读paper!!!

带着问题去paper中找问题。有助于快速定位要点和快速理解文章。我个人一般是按下面几个要点去探索一篇文章。

1、task

了解文章要解决的主要问题是怎么样的。
abstract,introduction,conclusion

2、related work (有的文章可以把这部分放到最后再读)

针对task,现有工作是怎么做的,有哪些视角和方法。
视角决定了你未来可能采用的方式。
常用的方法奠定了你在这个领域的基础。这些文章也非常重要。
如果对这些文章不理解。通常去要发掘其中的关键、经典文章,精读。
abstract, introduction, related work.

3、motivation

这是为什么有这么一篇文章的关键。
要么遇到了新的task,要么是现有task中,现有方法解决不了一些特定的问题。
abstract,introduction,conclusion

4、Method

这与motivation是息息相关的。
前面提出了现在有什么问题,那么method就要有相应的解决方案。
通常情况下,一个问题对应一个模块,多个问题对应多个模块。
abstract,introduction,conclusion、method/framework

5、验证

所有提出的解决方案,都需要用实验验证其有效性。这依赖于实验设置与实验效果。
实验设置包含数据集、评价指标、baseline。
数据集会有相应的处理,以符合文章task的基本假设。
例如,如果文章是解决推荐系统的冷启动问题,那么在数据中,一定会想办法构造冷启动的情况,并加以验证。

评价指标应该是能够评价motivation问题的方案。
例如,如果说现有方法在top-5表现不好,那么就会有top-5的各类指标。
baseline应该是SOTA的方法,能够与提出方法做公平对比。可以是子分支的SOTA方法,也就是说它的performance不一定是全部方法中最好的,但是基本接近第一梯队,并且在分支里是最好的。例如,如果改进SVM达到了接近CNN的效果,即便没有超过,也是一篇优秀的论文。

实验效果应该说明提出方法的某个角度的问题。
每一张图、每一个表,都有着作者相应的解释,证明提出方法在motivation上的有效性。或者提出的方法本身的一些特性研究,如泛化能力,子模块的必要性等。
experiments.

6、未来可以拓展的方向

文章通常会给出一些作者考虑的可以继续深入的角度,供参考。
conclusion.

扫文章
上述是精读一篇文章的方法。如果文章本身不复杂,或是本身对领域比较了解时,可以简化上述过程。读一读abstract,了解1、3、4,即可确定是否需要继续深入了解这篇文章。

略读
读一读abstract,conclusion,introduction,结合method部分,即可理解文章的概要。

读论文要点

1、Paper题目、来源(会议期刊名)、年份、作者、引用数。目的是能够大致的判断文章的质量。
2、Motivation。这篇文章为什么要做这件事情。这是所有文章的核心。如果motivation不清晰,后续做的所有事情都是没意义的。
3、相关文献。现有的方法是怎么做的,怎么不足了。
4、方法。也就是解决方案。应该与Motivation和相关文献中提到的不足一一对应。要从逻辑和公式两个角度将解决方案讲清楚。介绍逻辑的过程应该是一个主观的感受,不要与公式混杂。
5、实验。包括数据集、指标、实验设计的角度和效果。
6、展望。conclusion中说的可以继续探索的部分。

论文讲解模板

第一部分:
1、Paper题目、来源(会议期刊名)、年份、作者、引用数。
2、任务介绍,包括动机(传统方法的不足),输入输出格式。
3、(可选)重要的相关工作。

第二部分:
1、模型主要结构,各部分的介绍。可以列公式,但尽量避免讲公式。
2、强调模型是如何解决第一部分中提到的动机问题的。

第三部分:
1、实验数据集及预处理方案。如何组织测试数据的。
2、评价指标。
3、baseline介绍。

第四部分:
1、实验中重要的表或图。
2、表或图对应的验证结论。
3、强调图或表验证了动机或模型的哪一个方面。


1、使用pytorch,手动实现Lenet分类minist,并训练出有效的分类模型。
目标:
理解模型训练、验证和测试过程。
熟练掌握pytorch的数据加载和预处理架构。
熟练掌握网络层的定义、关键参数和使用方法。
理解正向反向传播流程。
理解优化器的使用方法。

2、看懂caffe的Lenet代码。
目标:
理解caffe的配置文件
了解caffe的层定义方法

3、把caffe的caffenet的代码编译运行起来。
目标:
掌握C++编译和执行过程。
理解caffe的运行机制

4、把Wheel的代码编译通过。https://github.com/duxy-me/mm2017-wheel
目标:
掌握MPI+Cuda的编译过程。


1、第一篇文章还是需要仔细带,从找题,解题,实现到成文,整个过程需要深度参与。
2、上手不要做热点问题,最好是经典问题的扩展。能够快速得到结果,以免打击科研积极性。
3、前期都不要做太难的问题,由简入难。刷了几篇文章以后,再考虑花时间做一点难的问题。
4、要培养学生的独立性。
5、多扔到企业实习。


  1. 完成coursera上Andrew NG的课程
    https://www.coursera.org/learn/machine-learning
  2. 自学cs231n课程
    http://cs231n.stanford.edu/

目标:
1、了解机器学习

  • 基本概念:训练、测试、目标函数、过拟合、欠拟合、调参,等
    2、了解神经网络
  • 基本概念:全连接层、卷积层、正向传播、反向传播
  • 经典技术:Convolutional Kernel, Dropout, Residual Block (ResNet), Adversarial Learning, Attention Mechanism, Generative Adversarial Network (GAN).
    3、了解编码环境
  • 虚拟环境:Anaconda
  • 开发框架:Pytorch
  • 常用工具:Jupyter, Github

BadTalk.pdf


综述

  • DeepFakes and Beyond: A Survey of Face Manipulation and Fake Detection
  • Deep Learning for Deepfakes Creation and Detection

Strong Baselines

  • Face X-ray for More General Face Forgery Detection

数据集

  • FaceForensics++: Learning to Detect Manipulated Facial Images
  • Celeb-DF: A Large-scale Challenging Dataset for DeepFake Forensics

对抗相关

  • Watch your Up-Convolution: CNN Based Generative Deep Neural Networks are Failing to Reproduce Spectral Distributions
  • Evading Deepfake-Image Detectors with White- and Black-Box Attacks
  • The Role of ‘ Sign ’ and ‘ Direction ’ of Gradient on the Performance of CNN
  • Adversarial Attack on Deep Learning-Based Splice Localization

对杭样本STOA

  • Explaining and harnessing adversarial examples
  • Efficient adversarial training with transferable adversarial examples
  • Fast is better than free: Revisiting adversarial training

机器视觉就是要代替人眼,机器学习就是要代替人脑。

Guess you like

Origin blog.csdn.net/qq_42257666/article/details/120464835