AdaDepth: Unsupervised Content Congruent Adaptation for Depth Estimation

源码:https://www.iisc.ac.in/adadepth/

源码很乱,看不懂,而且比较关键的部分都没有给。

这篇文章看了很久,结合别的文章理解之后再读这篇文章,有了比较深的体会。

重点:To generalize the learned features for the new domain, we plan to match the latent distributions of Ms(Xs) and Mt(Xt) so that the subsequent transformation Ts can be used independent of the domain as Ts = Tt = T.
Adaptation process:

用训练好的Ms和Ts初始化Mt和Tt。为了迁移Mt的参数,使用了两个判别器,DF和DY。DF判断的是Mt(Xt)和Ms(Xs),DY判断的是Ys和T(Mt(Xt))。
在迁移的时候,要固定Mt的Res-5 block前的层,只迁移Res-5 block。
判别器的loss函数:

但是!!只用gan会出现问题,所以得加入正则项,本文提出了三种方法,但是推崇第三种:


最终的完整loss函数:

算法过程:

具体更新流程我现在不是很懂,按照算法来看,应该是按顺序更新判别器的参数,在更新判别器的时候,generator的Mt和T都要更新。。有点懵。。。。


训练过程:
base network:在568,793张合成数据集中挑出100,000张用于source训练。一个batch有十张,用Adam优化器,初始lr是0.01,然后逐渐除以10。
adaptation network:在更新判别器和生成器时,使用Momentum优化器,λ是10。在进行迁移之前就更新Ct的参数,然后Ct、DF和DY再一起更新。
训练有监督的AdaDepth




猜你喜欢

转载自blog.csdn.net/mengmengdajuanjuan/article/details/80884010
今日推荐