2021李宏毅机器学习课程笔记——Auto Encoder

注:这个是笔者用于期末复习的一个简单笔记,因此难以做到全面详细,有疑问欢迎大家在评论区讨论
https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/auto_v8.pptx

I. Basic Idea

简单来说,Auto Encoder就是一个Encoder+Decoder的架构。Encoder负责将图片给编码为向量,而Decoder负责将向量给解码回图片,即一个"自己生成自己"的过程。由于网络的输出仍为输入图片本身,不需要额外的标签,因此属于一种自监督的范式:
在这里插入图片描述
这里特别需要注意的一点是,编码成的那个向量(也被称为bottleneck)维度一般会尽可能低,以实现以低维特征表示高维数据的目的。从这个角度看,Auto Encoder也可以被视为一种降维工具,类似的降维方法还有PCA、t-SNE等。

II. Feature Disentanglement

由于AE将高维特征降维总结成了"更具代表性"的低维特征,那么这些总结后的特征便可能提取出一些可理解的信息。例如,对于图像,将其降维成若干通道后,可能有的通道便单独对应着纹理特征,而有的通道则对应着颜色特征,相当于做了个"特征解缠(disentanglement)"。据此我们便可以设计出一些很有意思的应用,例如将两张图像编码后,交换其某个通道,再重新解码,便可能实现颜色的交换。

III. More Applications

  • 文档综述:将文章编码为可读的序列(即综述),然后再解码回源文档。通过使用一个判别器来判断该综述真不真实,从而使得Auto Encoder生成的综述越来越逼近人类所写。注意这里由于涉及到了判别器,所以实质上可以认为就是一种CycleGAN了。
  • VAE:VAE相比于AE而言,增加了生成图像的能力。也就是说,输入一个新采样的随机向量,VAE也能生成一张对应的真实风格图像,这就要求Encoder编码得到的向量还要服从某种分布,训练难度更高
  • Anomaly Detection:将新图像输入由"正常图像"训练得到的AE,如果新图像是异常的(即不符合原图像的分布),那么重建效果就会很差,据此实现异常检测。
  • Compression:重建目标非原始图像,而是压缩过的原始图像。

猜你喜欢

转载自blog.csdn.net/qq_40714949/article/details/122299429