论文笔记 Dynamic Graph Generation Network: Generating Relational Knowledge from Diagrams (CVPR2018)

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/pku_langzi/article/details/82779940

Related works

1. visual relationships

2. Neural networks on a graph

3. Memory augmented neural network

文章方法上值得关注的地方

This paper propose a dynamic adjacency tensor memory (DATM) for the DGGN to store information about the relationships among the elements in a diagram.
将graph的边与动态的memory network结合在一起,蛮创新的。基础框架仍然是DGGN,但结合进memory network不仅能在节点之间传递消息(message-passing between nodes) ,而且能在线地构建图的边(build the edges of a graph online),为图的生成和推理提供了很大的潜力。

在这里插入图片描述
dynamic adjacency tensor memory(DATM)其实是一个 n n ( m + 1 ) n*n*(m+1) 的三维矩阵,该三维矩阵由两部分拼接而成,一部分是邻接矩阵 A R n n A\in R^{n*n} ,另一部分是对应的隐单元H,其 ( i , j ) (i,j) 元素 h ( i , j ) h_{(i,j)} 是GRU的m维隐向量,与节点 o i o_i o j o_j 之间的连接有关。邻接矩阵A表示有向图中n个节点之间的连接状态。对于每个GRU 单元的输入就是 f t f_t f t ( l ) , t = 1 , 2 , . . . , n 2 f_t^{(l)}, t = 1,2,...,n^2 , f t f_t 表示两个object特征之间的拼接。
在这里插入图片描述
在这里插入图片描述
对于Retrieval而言,就是用边的存在概率 a a 加权了 o i o_i o j o_j 的相邻向量 h h , 并且添加全局特征 f ( g ) f^{(g)} 以反映图表的全局形状, 形成 t t 时刻的GRU隐层向量 h t h_t
在这里插入图片描述
对于Update而言,其中memory里面的一个cell D i , j D_{i,j} 是由一个GRU cell的输出 a t a_t 与隐层单元 h t h_t 拼接而成。
在这里插入图片描述
为了得到隐藏状态 h t h_t ,使用了向量 h t 1 h_{t−1} f t f_t 作为标准GRU的先前隐藏状态和输入向量。
在这里插入图片描述
这是包含detection与graph generation的多任务学习,因此其loss包含三项,目标检测分支的分类损失 L c L_c 和位置回归损失 L l L_l ,图生成网络的关系分类损失 L r L_r

猜你喜欢

转载自blog.csdn.net/pku_langzi/article/details/82779940