深度聚类综述

从体系结构的角度对深度聚类进行总结

文献:A Survey of Clustering With Deep Learning: From the Perspective of Network Architecture 2018

简单看看聚类

传统聚类

传统的聚类方法使用的相似性度量方法效率低下,因此它们在高维数据上的性能通常较差。此外,这些方法通常在大规模数据集上具有很高的计算复杂度。

人们广泛研究了降维和特征转换方法,以将原始数据映射到一个新的特征空间中,在该特征空间中,生成的数据更容易被现有的分类器分离。一般而言,现有的数据转换方法包括线性变换(例如主成分分析(PCA))和非线性变换(例如核方法和光谱方法)。

深度聚类

由于深度神经网络的高度非线性转换的内在特性,可将其用于将数据转换为更易于聚类的表示形式。

最新的深度聚类方法通常同时处理数据特征提取聚类过程

方法概述

第一类使用自动编码器(AE)获得可行的特征空间。自动编码器网络通过学习编码器和解码器来提供非线性映射功能,其中编码器是要训练的映射功能,并且要求解码器能够从由编码器生成的那些特征中重构原始数据。

第二类基于仅通过特定聚类损失训练的前馈网络,因此我们将这种DNN称为聚类DNN(CDNN)。该类别的网络体系结构可能非常深入,并且在大规模图像数据集上进行预训练的网络可以进一步提高其聚类性能。

第三和第四类分别基于生成对抗网络(GAN)[24]和变异自编码器(VAE)[25],它们是近年来最受欢迎的深度生成模型。他们不仅可以执行聚类任务,还可以从获得的聚类中生成新样本

深度聚类基础知识

用于特征表示的相关网络结构

1)前馈完全连接神经网络
完全连接网络(FCN)由多层神经元组成,每个神经元都连接到上一层中的每个神经元,并且每个连接都有自己的权重。 FCN也称为多层感知器(MLP)。 这是一种完全通用的连接模式,不对数据中的功能进行任何假设。 提供标签时,通常用于监督学习中。 但是,对于群集,必须对网络的参数进行良好的初始化。

2)前馈卷积神经网络
卷积神经网络(CNN)受生物过程的启发,其中神经元之间的连通性模式受动物视觉皮层组织的启发。 同样,卷积层中的每个神经元仅连接到前一层中的几个附近神经元,并且每个神经元使用相同的权重集。 当需要特征提取的局部性和平移不变性时,它被广泛应用于图像数据集。 可以直接针对特定的群集丢失进行训练,而无需任何初始化要求,良好的初始化将显着提高群集性能。 据我们所知,任何现有的论文都没有给出理论上的解释,但是大量的工作表明了其聚类的可行性。

3)深度信念网络
深度信念网络(DBN)是生成模型,可学习提取输入数据的深度层次表示。 DBN由几个堆叠的受限玻尔兹曼机(RBM)组成。 贪婪的逐层无监督训练应用于具有RBM作为每一层构建基块的DBN。 然后,相对于某些标准(损失函数),例如DBN对数似然的代理,监督训练标准或聚类损失,微调DBN的所有(或部分)参数。

4)自动编码器
自动编码器(AE)是无监督表示学习中最重要的算法之一。 这是训练映射功能的强大方法,可确保在编码器层和数据层之间的重构误差最小。 由于隐藏层的维数通常比数据层小,因此它可以帮助查找数据的最显着特征。 尽管自动编码器主要用于在监督学习中为参数找到更好的初始化,但将其与无监督聚类相结合也是很自然的。

5)GAN&VAE
生成对抗网络(GAN)和变异自动编码器(VAE)是深度生成学习的最强大框架。 GAN的目标是在生成器和鉴别器之间取得平衡,而VAE则试图最大化数据对数似然性的下限。 已经为GAN和VAE开发了一系列模型扩展。 此外,它们还已应用于处理群集任务。

标准聚类方法的损失函数

主聚类损失:此类聚类损失函数包含样本的聚类质心和聚类分配。 换句话说,在由聚类损失指导的网络训练之后,可以直接获得聚类。
它包括k均值损失,聚类分配硬化损失,聚集聚类损失,非参数最大余量聚类等。
辅助群集损失:第二类仅起到引导网络学习群集的更可行表示的作用,但不能直接输出群集。 这意味着仅具有辅助聚类损失的深层聚类方法需要在训练网络后运行聚类方法以获得聚类。 在深度聚类中使用了许多辅助聚类损失
例如
保留位置的损,它会强制执行网络以保留数据嵌入的局部属性。
群体稀疏性损失,它利用块对角相似度矩阵进行表示学习;
稀疏子空间聚类损失,其目的是学习数据的稀疏代码。

用于深度聚类的性能度量指标

ACC
在这里插入图片描述

NMI
在这里插入图片描述

深度聚类方法分类

方法分类:
在这里插入图片描述
算法比较:
在这里插入图片描述

代表性算法的主要贡献:
在这里插入图片描述

基于 AE 的深度聚类

概述

在这里插入图片描述
已经提出了自动编码器的许多变体并将其应用于深度聚类。可以从以下角度改进自动编码器的性能
1)体系结构:原始的自动编码器由多层感知组成。为了处理具有空间不变性的数据(例如图像数据),可以使用卷积层和池化层来构建卷积自动编码器(CAE)。

2)鲁棒性:为避免过度拟合并提高鲁棒性,很自然地会给输入增加噪声。去噪自动编码器[35]尝试从x reconstruct重构x,x是通过某种形式的噪声而损坏的x版本。另外,噪声也可以添加到每个层的输入[14]。

3)潜在特征的限制:不完整的自动编码器将潜在编码器z的尺寸限制为小于输入x的尺寸,从而迫使编码器从原始空间中提取出最显着的特征。也可以采用其他限制,例如,稀疏自动编码器[36]对潜在编码器施加稀疏约束,以获得稀疏表示。

4)重建损失:通常,自动编码器的重建损失仅由输入层和输出层之间的差异组成,但是所有层的重建损失也可以共同优化[14]。

体系结构图

通过聚类损失和重建损失来训练网络
在这里插入图片描述

典型算法

Deep Clustering Network (DCN):

DCN 是该领域最出色的方法之一,它结合了自动编码器和k-means算法。
第一步,它会预先训练一个自动编码器。 然后,它共同优化了重建损失和k均值损失。 由于k均值使用离散聚类分配,因此该方法需要另一种优化算法。 与其他方法相比,DCN的目标很简单,并且计算复杂度较低。

Deep Embedding Network (DEN):

DEN 提出了一种深度嵌入网络,以提取有效的表示形式进行聚类。
它首先利用深度自动编码器从原始数据中学习简化表示。
其次,为了保留原始数据的局部结构属性,应用了局部保留约束。
此外,它还合并了组稀疏性约束,以对角化表示的亲和力。 连同重建损失,一起优化了这三种损失,以对网络进行微调,以实现面向集群的表现。 保留局部性和稀疏性约束是辅助的聚类损失(参见II-B节),因此,作为最后一步,需要k-means来聚类学习的表示。

Deep Subspace Clustering Networks (DSC-Nets):

DSC-Nets 引入了一种新颖的自动编码器体系结构,以学习对子空间聚类友好的显式非线性映射。
关键的贡献是引入了一种新颖的自表达层,该层是一个完全连接的层,没有偏置和非线性激活,并插入了编码器和解码器之间的连接点。 该层旨在对从子空间的并集中提取的数据的自表达特性进行编码。 从数学上讲,其优化目标是结合重构损失的子空间聚类损失。 尽管它在几个小规模数据集上具有出色的性能,但它确实消耗内存和时间,因此无法应用于大规模数据集。 原因是它的参数编号对于n个样本为O(n2),并且只能通过梯度下降进行优化。

Deep Multi-Manifold Clustering (DMC):

DMC 是一种基于深度学习的多流形聚类(MMC)框架。
它优化了一个由两部分组成的联合损失函数:局部保留目标和面向聚类的目标。
第一部分使学习的表示形式有意义并嵌入其内在的流形。它包括自动编码器重构损失和位置保留损失。
第二部分根据表示形式与每个簇质心的接近程度对表示形式进行惩罚,使表示形式易于聚类和区分。
实验结果表明,DMC比最新的多流形聚类方法具有更好的性能。

深度嵌入式正则化聚类(DEPICT):

DEPICT 是一种复杂的方法,包含多个醒目的技巧。它由堆叠在多层卷积自动编码器顶部的softmax层组成。它使用用于聚类的正则项将相对熵损失函数最小化。正则化术语鼓励平衡的群集分配,并避免将群集分配给异常样本。此外,还采用了自动编码器的重建损失来防止特征表示受损。请注意,编码器和解码器中的每一层都会造成重建损失,而不仅仅是输入和输出层。该方法的另一个亮点是它采用了噪声编码器来增强算法的鲁棒性。实验结果表明,DEPICT具有出色的聚类性能,同时具有较高的计算效率。

深度连续群集(DCC):

DCC 也是基于AE的深度聚类算法。
它旨在解决深度集群的两个限制。 由于大多数深度聚类算法均基于经典的基于中心,基于散度或层次的聚类公式,因此它们具有一些固有的局限性。 一方面,他们需要先验地设置聚类数。 另外,这些方法的优化过程涉及对目标物的离散重新配置,这需要交替更新聚类参数和网络参数。 DCC扎根于稳健的连续聚类(RCC),该提法具有明确的连续目标,并且没有聚类数的先验知识。 类似于许多其他方法,表示学习和聚类是联合优化的。

基于 CDNN 的深度聚类

概述

基于CDNN的算法仅使用群集损失来训练网络,其中网络可以是FCN,CNN或DBN。 基于CDNN的算法的优化目标可以表述为:
在这里插入图片描述
如果没有重建损失,当将所有数据点简单地映射到紧密的聚类时,基于CDNN的算法就存在获得受损特征空间的风险,从而导致聚类损失的值很小,但意义不大。 因此,应精心设计群集丢失,并且网络初始化对于某些群集丢失很重要。
因此,我们根据网络初始化的方式将基于CDNN的深度聚类算法分为三类,即无监督的预训练有监督的预训练随机初始化(非预训练)。

体系结构图

基于CDNN的深度聚类算法,仅通过群集损失来调整网络。网络体系结构可以是FCN,CNN,DBN等。
在这里插入图片描述

典型算法

无监督预训练网络

RBM和自动编码器已应用于基于CDNN的聚类。 这些算法首先以无监督的方式训练RBM或自动编码器,然后通过聚类损失微调网络(仅用于自动编码器的编码器部分)。 几种代表性的算法介绍如下:

深度非参数聚类(DNC):

DNC 利用DBN的无监督特征学习进行聚类分析。它首先训练一个DBN,以将原始训练数据映射到嵌入代码中。然后,它运行非参数最大余量群集(NMMC)算法,以获取所有训练数据的群集和标签数量。此后,需要进行微调过程以精炼DBN顶层的参数。实验结果显示了优于经典聚类算法的优势。

深度嵌入式群集(DEC):

DEC 是最有代表性的深度聚类方法之一,在该领域引起了很多关注。它使用自动编码器作为网络体系结构,并使用群集分配强化损失作为规则。它首先使用重建损失训练自动编码器,然后删除解码器部分。编码器网络提取的特征用作聚类模块的输入。之后,使用群集分配强化损失对网络进行微调。同时,通过最小化软标签的分布和辅助目标分布之间的KL散度来迭代地精炼聚类。结果,该算法取得了良好的效果,并成为比较新的深度聚类算法性能的参考。

区分性增强群集(DBC):

DBC 与DEC具有几乎相同的体系结构,唯一的改进是它使用了卷积自动编码器。换句话说,它还会先预训练自动编码器,然后再使用集群分配DBC 与DEC具有几乎相同的体系结构,唯一的改进是它使用了卷积自动编码器。换句话说,它还首先对自动编码器进行预训练,然后使用群集分配硬化损失来微调网络,同时优化群集参数。由于使用了卷积网络,它在图像数据集上的性能优于DEC。

监督预训练网络

尽管无监督的预训练可以更好地初始化网络,但是从复杂的图像数据中提取可行的特征仍然具有挑战性。 Guérin等。通过测试在ImageNet 和不同的经典聚类算法上预训练的不同流行的CNN架构的组合的性能,进行了广泛的实验。实验结果表明,从经过深化的CNN提取的特征经过大规模,多样的标记数据集训练后,再结合经典的聚类算法,可以胜过最新的图像聚类方法。 为此,当聚类目标是复杂的图像数据时,自然会利用最流行的网络架构,例如VGG [46],ResNet [47]或Inception [48]模型,这些模型已在大型缩放像ImageNet这样的图像数据集,以加快迭代的收敛速度并提高聚类质量。 此类最出色的方法介绍如下:

聚积卷积神经网络(CCNN):

CCNN 是一种有效且可靠的深度聚类算法,可以处理大规模图像数据集。它提出了一个基于CNN的框架来迭代解决聚类和表示学习。它首先随机选择k个样本,并使用在ImageNet数据集上经过预训练的初始模型来提取其特征作为初始聚类质心。在每个步骤中,执行小批量k均值以更新样本和聚类质心的分配,同时使用随机梯度下降来更新所建议的CNN的参数。迷你批处理的k均值显着降低了计算和内存成本,使CCNN可以适应大规模数据集。此外,它还包括一种新颖的迭代质心更新方法,该方法可避免由于两次连续迭代之间的特征不一致而引起的漂移误差。同时,为了提高更新的可靠性,仅选择距其相应质心距离最小的前几公里样本来更新网络参数。所有这些技术都可以提高群集性能。据我们所知,它是唯一可以处理将数百万个图像进行聚类的任务的深度聚类方法。

3)非预交易网络

尽管预训练的网络可以显着提高聚类性能,但在精心设计的聚类损失的指导下,也可以训练网络以提取区分特征。

信息最大化自我增强训练(IMSAT):

IMSAT 是一种无监督的离散表示学习算法,其任务是获取将数据映射为离散表示的函数。群集是任务的特例。它结合了FCN和正规化的信息最大化(RIM)[50],后者学习了概率分类器,从而使输入和集群分配之间的互信息最大化。此外,分类器的复杂度是正规化的。同时,提出了一种灵活且有用的正则化目标,即自增强训练(SAT),以将预期的不变性强加给数据表示。这种数据增强技术显着提高了标准深RIM的性能。 IMSAT显示了MNIST和REUTERS数据集上的最新结果。

联合无监督学习(JULE):

提出了JULE [16]来共同学习特征表示和聚类图像。卷积神经网络用于表示学习,而层次聚类(具体来说是聚集聚类)则用于聚类。它在循环过程中迭代地优化目标。分层图像聚类在前向遍历中执行,而特征表示则在后向遍历中学习。在前向传递中,图像的表示被视为初始样本,然后基于图像的深层表示从无向亲和矩阵生成标签信息。此后,根据预定义的损耗度量将两个群集合并。在向后遍历中,网络参数被迭代更新,以通过优化已合并的群集来获得更好的特征表示。在实验中,该方法在图像数据集上显示了出色的结果,并表明所学习的表示可以在不同的数据集之间进行传递。但是,当数据集很大时(因为它需要构造无向亲和力矩阵),计算成本和内存复杂性非常高。更糟糕的是,由于它是一个密集的矩阵,因此很难优化成本。

深度自适应图像聚类(DAC):

DAC 是一种基于单级卷积网络的图像聚类方法。该方法基于以下基本假设:成对图像之间的关系是二进制的,并且其优化目标是二进制成对分类问题。图像由卷积神经网络提取的标签特征表示,而成对相似性则由标签特征之间的余弦距离来衡量。此外,DAC引入了一个约束条件,以使学习到的标签特征倾向于成为一时的矢量。此外,由于地面真相的相似性未知,因此采用自适应学习算法[52],这是一种交替迭代的方法来优化模型。在每次迭代中,基于固定网络选择具有估计相似性的成对图像,然后通过选择的标记样本对网络进行训练。当所有实例都用于训练并且目标无法进一步改善时,DAC会收敛。最后,图像根据标签特征的最大响应进行聚类。 DAC在五个具有挑战性的数据集上实现了卓越的性能。

基于 VAE 的深度聚类

概述

与经典聚类方法相比,基于AE和基于CDNN的深度聚类取得了令人瞩目的改进。 但是,它们是专门为群集而设计的,并且无法揭示数据的真实基础结构,这会阻止它们扩展到集群以外的其他任务,例如生成样本。 更糟糕的是,降维技术的基本假设通常与聚类技术的假设无关,因此没有理论上的保证,即网络将学习可行的表示形式。 近年来,一种变型自动编码器(VAE)是一种深度生成模型,已引起广泛关注并激发了许多变体。 在本节中,我们介绍基于VAE的深度聚类算法。

VAE被认为是AE的生成变体,因为它强制AE的潜在代码遵循预定义的分布。 VAE将变分贝叶斯方法与神经网络的灵活性和可扩展性结合在一起。 它引入了神经网络以适应条件后验,因此可以通过随机梯度下降[53]和标准反向传播[54]优化变分推理目标。 具体来说,它使用可变下界的重新参数化来产生下界的简单可微的无偏估计量。 该估计器可用于几乎任何具有连续潜在变量的模型中的有效近似后验推断。 从数学上讲,它的目的是最大程度地减少边际的(变化)下界。
数据集X的可能性
其目标函数可以表示为:
在这里插入图片描述
总而言之,标准自动编码器与VAE之间的最大区别是VAE在潜在表示z上施加了概率先验分布。 在常规VAE中,先验分布p(z)通常是各向同性的高斯分布。 但是在聚类的背景下,我们应该选择可以描述聚类结构的分布。 如图3所示,现有算法选择高斯混合作为先验。 换句话说,他们假设观测到的数据是从混合的高斯生成的,推断出数据点的类别等同于推断出该数据点是从哪一种潜势分布模式生成的。 在最大化证据下界之后,可以通过学习的GMM模型来推断聚类分配。 除了输出聚类结果之外,这种算法还可以生成图像,但是它们通常具有很高的计算复杂度。 两种相关的算法介绍如下。

体系结构图

基于VAE的深度聚类算法的体系结构。 他们对潜在代码强加了GMM先验
在这里插入图片描述

典型算法

Variational Deep Embedding (VaDE):
Gaussian Mixture VAE (GMVAE):

在这里插入图片描述

基于 GAN 的深度聚类

概述

在这里插入图片描述
可以交替使用SGD优化生成器G和鉴别器D。 GAN的概念很有趣,因为它提供了一种对抗性的解决方案,可以将数据的分布或其表示与任意先验分布进行匹配。 近年来,已经提出了许多基于GAN的聚类算法,其中一些算法特定于聚类任务,而另一些仅以聚类为特例。 基于GAN的深度聚类算法具有GAN相同的问题,例如难以收敛和模式崩溃。

体系结构图

基于GAN的深度聚类(a)DAC (b)CatGAN (c)InfoGAN。
在这里插入图片描述

典型算法

Deep Adversarial Clustering (DAC):

DAC [56]是特定于聚类的生成模型。 它将对抗性自动编码器(AAE)[57]应用于聚类。 AAE与VAE相似,因为VAE使用KL散度惩罚在潜在表示上施加先验分布,而AAE使用对抗训练程序将潜在表示的聚合后验与先验分布进行匹配。 受VaDE成功的启发,Harchaoui等人。 [56]用高斯混合分布匹配潜在表示的聚合后验。 网络架构如图4(a)所示。 它的优化目标包括三个项:传统的自动编码器重建目标,高斯混合模型似然性和对抗性目标,其中重建目标可被视为网络损失,其他两个项是聚类损失。 [57]中的实验表明,它在MNIST数据集上具有与VaDE相当的结果。

Categorial Generative Adversarial Network (CatGAN):

CatGAN [58]将GAN框架概括为多个类。如图4(b)所示,它考虑了无监督地从数据集中学习判别式分类器D的问题,该分类器D将数据点分类为优先选择的类别数,而不是仅两个类别(假或实数)。 CatGAN引入了一种基于GAN框架的新的两人游戏:不需要D来预测x属于真实数据集的概率,而是强制D将所有数据点分类为k个类,同时不确定由G生成的样本的类分配另一方面,它要求G生成恰好属于k类中的一个的样本,而不是生成属于数据集的样本。数学上,CatGAN的目标是使H [p(c | x,D)]和H [p(c | D)]最大化,并使H [p(c | G(z),D)]最小化,其中H [ ·]表示经验熵,x是真实样本,x是随机噪声,c是类别标签。 LD所指的鉴别器的目标函数,LG所指的生成器的目标函数可以定义如下:
在这里插入图片描述

其中X是数据集的分布。经验评估表明,在“圆”数据集上,CatGAN优于k均值和RIM [50]。

Information Maximizing Generative Adversarial Network (InfoGAN):

InfoGAN [59]是一种无监督的方法,可以学习解缠结的表示,它也可以用于聚类。 它可以解开离散的和连续的潜在因素,扩展到复杂的数据集。 InfoGAN的思想是最大化GAN噪声变量的固定小子集与观测值之间的互信息[60],这相对简单但有效。 具体来说,如图4(c)所示,它将输入噪声矢量分解为两部分:不可压缩噪声z和潜码c,因此发生器的形式变为G(z,c)。 为了避免琐碎的代码,它使用信息理论正则化来确保潜在代码c和发电机分布G(z,c)之间的相互信息应该很高。 InfoGAN的优化目标成为以下信息规范化的minimax游戏:
在这里插入图片描述
其中V(D,G)表示标准GAN的对象,而I(c; G(z,c))是信息理论正则化。当选择用一个具有k个值的分类代码和几个连续代码对潜在代码建模时,它具有将数据点聚类为k个聚类的功能。 [59]中的实验表明,它在MNIST数据集上可以达到0.95的精度。

总结

在这一部分中,我们介绍了深度聚类算法的总体范围。具体来说,我们从损失函数,优势,劣势和计算复杂度方面比较了四种算法。如表4所示。关于损失函数,除基于CDNN的算法外,其他三类算法共同优化了集群损失Lc和网络损失Ln。不同之处在于,基于AE的算法的网络损失是明确的重建损失,而基于VAE的算法和基于GAN的算法的两种损失通常被结合在一起。

由于自动编码器可与几乎所有聚类算法结合使用,因此基于AE的DC算法最为常见。自动编码器的重建损失可确保网络学习可行的表示形式,并避免获得琐碎的解决方案。但是,由于对称的体系结构,网络深度在计算可行性上受到限制。此外,要平衡这两个损耗的超参数需要进行额外的微调。与基于AE的DC算法相反,基于CDNN的DC算法仅优化聚类损失。因此,网络的深度是无限的,可以使用经过监督的预训练体系结构来提取更多判别性特征,从而使它们能够对大型图像数据集进行聚类。但是,如果没有重建损失,他们就有学习损坏的特征表示的风险,因此,应精心设计聚类损失。基于VAE和基于GAN的DC算法是生成DC技术,因为它们能够从最终获得的簇中生成样本。基于VAE的算法具有很好的理论保证,因为它们可将数据边际可能性的变化下限最小化,但它具有计算复杂性高的缺点。基于GAN的算法在通用GAN框架上施加了多类先验。它们比基于VAE的更具灵活性和多样性。其中一些旨在学习可解释的表示形式,并且仅将聚类任务作为特定案例。基于GAN的算法的缺点类似于GAN,例如模式崩溃和收敛缓慢。

深度聚类的计算复杂度变化很大。对于基于AE和基于CDNN的算法,计算成本与聚类损失高度相关。例如,k均值损失导致相对较低的开销,而聚集聚类的成本却非常高。同时,由于深层的CNN需要很长时间的训练,因此网络体系结构也会显着影响计算复杂性。对于VAE和GAN,由于难以优化,因此与基于AE和基于CDNN的类别(例如DEC,DCN,DEPICT等)中的有效方法相比,它们通常具有更高的计算复杂性。

未来的机会和结论

深度聚类的未来机会

基于上述文献的回顾和分析,我们认为深度聚类的以下观点值得进一步研究:
1)理论探索
尽管联合优化网络和聚类模型可以显着提高聚类性能,但尚无理论分析来解释其工作原理以及如何进一步提高性能。因此,探索深度聚类的理论保证对指导这一领域的进一步研究具有重要意义。

2)其他网络架构
现有的深度聚类算法主要集中于图像数据集,而很少尝试对顺序数据,例如文档。为此,建议探索将其他网络体系结构与群集相结合的可行性,例如递归神经网络[61]。

3)深度学习技巧
将有监督的深度学习中使用的一些技巧或技术引入深度聚类是可行的,例如数据扩充和特定的规范化。一个具体的例子是用噪声增强数据以提高聚类方法的鲁棒性。

4)其他集群任务
将深度神经网络与各种聚类任务相结合,例如多任务聚类,自学聚类(转移聚类)[62]是另一个有趣的研究方向。据我们所知,这些任务还没有利用神经网络强大的非线性转换能力。

结束语

由于深度聚类因其强大的特征提取能力而在许多实际应用中被广泛使用,因此自然而然地将聚类算法与深度学习相结合以获得更好的聚类结果。在本文中,我们对深度聚类进行了系统的调查,这是近年来流行的聚类研究领域。从网络体系结构的角度提出了深度聚类的分类法,并详细介绍了代表性算法。该分类法明确显示了不同深度聚类算法的特征,优缺点。此外,我们提供了深度聚类的几个有趣的未来方向。我们希望这项工作可以为对深度学习和聚类感兴趣的研究人员提供有价值的参考。

发布了64 篇原创文章 · 获赞 9 · 访问量 4356

猜你喜欢

转载自blog.csdn.net/Avery123123/article/details/103245306
今日推荐