ECCV2018 论文简析 Oral_1

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u014636245/article/details/82465302

ECCV 2018 Oral_1

ECCV2018

本文将对ECCV2018 中的Oral 论文进行简要概述, 并持续更新中。


Convolutional Networks with Adaptive Computation Graphs

提出了自适应计算图,每个层中包含一个门函数来控制是否执行/跳过这一层
这里写图片描述
门控单元如下图所示:
这里写图片描述
第一部分用于估计门打开的概率、第二部分描绘出估计概率的简单形式。
:D

通过基于序列模型优化的策略来实现卷积神经网络结构的高效学习,超过了强化学习、进化算法的效率。
下图是这种算法学习出的网络结构:
这里写图片描述
在进行结构搜索提高模型复杂度的同时,学习出代理模型(surrogate)来指导结构空间的搜索。下图描述了这种搜索过程:

这篇论文也构成谷歌AutoML的基础,并由李佳李飞飞等作为共同作者。
:D

Diverse Image-to-Image Translation via Disentangled Representations


图到图翻译的目标是学习出两个不同视觉域中的映射,但目前面临两个困难:
- 1).缺乏配对的训练图片对儿;
- 2).单一输入可能面临着多种可能的输出。
研究人员通过了解耦了多样性输出的表达和配对训练图片见的关系来解决这个问题。首先通过将图片嵌入两个空间来实现多样性:一个域不变的空间开捕捉不同域中共有的内容信息,另一个是表达特殊域特征属性空间。模型从输出中抽取编码的内容特征,并从特征空间中抽取属性向量。

这里写图片描述
上图是与CycleGan以及UNIT相比较,这种方法将隐空间解耦成了共享的内容空间和各自域的属性空间

为了处理不匹配的训练数据,研究人员在解耦表达的基础上引入了交叉循环一致性损失,结果显示模型可以在多种任务上生成丰富真实的图像,而不依赖与配对训练图像。
这里写图片描述

通过内容对抗损失和交叉循环一致损失,模型可以学习出不同域之间的多模态映射。同时在解耦表达的帮助下,这种方法可以基于随机属性或给定属性条件来生成输出图像。
作者Hsin-Ying Lee等;
project & code & code2
:D


Lifting Layers: Analysis and Applications
Learning with Biased Complementary Labels
Light Structure from Pin Motion: Simple and Accurate Point Light Calibration for Physics-based Modeling
Programmable Light Curtains
Learning to Separate Object Sounds by Watching Unlabeled Video
Coded Two-Bucket Cameras for Computer Vision & authorr
Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone Image
End-to-End Joint Semantic Segmentation of Actors and Actions in Video
Learning-based Video Motion Magnification
Massively Parallel Video Networks
DeepWrinkles: Accurate and Realistic Clothing Modeling
Learning Discriminative Video Representations Using Adversarial Perturbations

猜你喜欢

转载自blog.csdn.net/u014636245/article/details/82465302