网络表示学习初总结(Network embedding)

       Network embedding 目前是非常火热的一个研究方向,特别是从DeepWalk开始,后续引入了大量的工作,在数据挖掘领域没年都可以看到很多杰出工作,特别是北邮石川老师提出异质信息网络(HIN)后。随后很多领域专家老师提出了浅层模型(如矩阵分解,随机游走等等),深层模型(神经网络模型),笔者困扰为什么可以这样化分,化分标准是什么?如何进行下一步改进?

     已经有人证明了Deepwalk,Line , node2vec等等工作都属于矩阵分解范畴,都属于浅层模型,其后笔者在看一些论文综述时,也看到有学者说矩阵分解属于线性变换,因此学习到的低维表示,只有浅层特征,因此,引出了深层模型,以希望学习到更为复杂的表示或者特征,既非线性表示

     终于今天在看到其他博主关于矩阵分解的一些思考和见解时,意会到了化分标准。可以进一步参考其他博客内容特征值与特征向量矩阵分解

   对于AX =aX,其中A矩阵,X为特征向量,a为特征值,“由于矩阵相当于一个线性变换, 矩阵A与向量相乘,本质上对向量进行一次线性转换(旋转或拉伸),而该转换的效果为一个常数乘以向量(即只进行了拉伸)。当我们求特征值与特征向量的时候,就是为了求矩阵A能使哪些向量(特征向量)线性变换后只发生拉伸,不发生旋转。而拉伸的程度,自然就是特征值λ了‘’。
 

猜你喜欢

转载自blog.csdn.net/qq_39463175/article/details/106453647