Matching Papel Artigo pares com Graphical decomposição e Convoluções notas de leitura

Matching Papel Artigo pares com Graphical Decomposição e Convoluções detalhado fluxo


O fluxograma principal
Um, o CIG
1.KeyGraph Construção TextRank :( pelo método de extracção) na expressão documento, construído KeyGraph, cada palavra-chave como uma Vertex, se os dois juntos através da mesma palavra-chave aparece uma frase, então entre os dois nodos há arestas.
2.concept detecção :( opcional) Algoritmo de detecção usando comunidade de vários palavra-chave relacionada para formar um conceito de alta, isto é, detecção de comunidades podem keygraph todos os nós dividida em uma pluralidade de comunidades, a comunidade de uma pluralidade de palavras-chave um conceito, nota que cada palavra-chave pode aparecer em vários conceito em. (Passo 2, se não, então cada palavra-chave como um conceito)
, até agora, para dar conceitos.
fixação 3.sentence: o documento é atribuído a cada frase no conceito correspondente (classificada). Calculadas para cada frase e TF-IDF valor do cosseno de similaridade de cada conceito, cada frase para encontrar o conceito mais similar.
Até agora, cada conceito (para cada nó) vem com uma sentença de número. (Dois ao conceito comum do documento, um documento diferente da frase)
4. Depois de cada um conceito bem configurado e conceito frases que acompanham, ou seja, para cada um conceito para construir as suas arestas para cada nó.
construção borda: Lado Construção TF-IDF é um texto padrão entre cada uma das frases com conceito nó similaridade.
Até agora, de CIN foi construído, cada nó no gráfico como um conceito, a correlação entre a semelhança entre os nós e as arestas representam o conceito, cada conceito com frases.

Dois, a codificação vetores equivalentes locais (aprendizagem multi-
funções correspondentes -viewed para cada vértice conceito) de cada vector nó correspondente é usado como um recurso de aprendizagem (usado para indicar a semelhança semântica de dois nós vem de diferentes conjuntos de frases de documento).
(Daqui em diante, o nó de v a partir do documento duas diferente fornecido referido SAv de conjuntos de frases e SBV)
Existem dois métodos:
Codificador 1.siamese:
entrada de duas sequências, respectivamente, e as palavras embeddings SAv SBV a palavra de incorporação. Respectivamente, após uma primeira camada de contexto, e para obter CAV CBV, o objetivo é fazer com que as informações de contexto e SBV SAv respectivamente.
E, em seguida, através de uma camada de agregação (camada de ligação), para dar um nó característico mv parte.
-2.Term baseado Semelhanças:
calcula similaridade e correlação SAv SBV a pontuação do índice de cinco, cinco índices obtidos marcando outro nó característico mv parte obtida junto'.
O recurso de dois vectores de harmonização de cada nó é obtido, e estes dois métodos i.e. mv mv 'a concatenação.
Nota: O segundo passo é crítico, o documento é convertido para coincidir com os dois jogos entre cada nó com dois conjuntos de frases (se eles são relativamente correlação semelhante).
Até agora, cada nó ter sido um recurso de correspondência, o recurso no mapa como nós, mostra como esse recurso a condizer e quão relevante SAv SBV, o grau de correspondência (ou semelhança).

Três, transformando estruturalmente equivalentes locais caracteriza pelo gráfico
camadas convolucionais então começa transformação, isto é, com a última camada de GCN, GCN obter uma nova representação para cada nó (características correspondentes locais).
Efeito de GCN: Cada camada GCN actualiza o vector escondida de cada vértice, por integração dos vectores a partir dos seus vértices vizinhos Desse modo, as camadas GCN aprender a correspondência locais graficamente agregado apresenta em um resultado final ( a fim de limpar a ponta nó pesos são. contar com o que começar, e um recurso de correspondência representa o nó de entrada do que GCN) ps: nó representante vem com dois conjuntos de sentenças correspondentes SAv grau e SBV (ou pode ser dito similaridade), com um vetor para representar.

Quatro, agregando correspondente local para obter Características Resultado Final A
representação de cada uma o nó obtido (características correspondentes locais) são combinados num sistema global (Fig hierarquia) vetor correspondente, meios combinados é feita a média.
Até agora, temos sido uma característica global de correspondência.
Nós também precisamos aumentar a informação característica correspondência global dos dois documentos (hierárquica do documento) ou diretamente lançada no BERT cálculo direto Semelhanças à base de prazo e, em seguida, obter um outro recurso de correspondência global, recurso correspondente para ter acesso ao modelo do autor no passado para obter um novo recurso de correspondência global, e, finalmente, jogado em um modelos de classificação comuns, tais como MLP, obter os resultados de classificação.

Conclusão
Eles já Comparações Aprenda a local em uma Global Aggregate Semantic frutuosa, Características adicionalmente Engineered global não posso ajudar.
"Dividir e conquistar", com explodiu, em seguida, a polimerização convolução.

Publicado um artigo original · ganhou elogios 1 · visualizações 106

Acho que você gosta

Origin blog.csdn.net/qq_40637341/article/details/104867697
Recomendado
Clasificación