半监督学习总结

半监督学习:

部分样本有标记,但是大部分样本无标记

解决办法:

主动学习+专家知识

Or

半监督学习

半监督学习 应用需求非常强烈,因为大量数据都是未标记的,标记成本高

半监督学习的基本假设:

聚类假设:即假设数据存在簇结构

Or 流形假设

半监督学习方法:

一、生成式方法:

假设存在潜在模型,未标记的分类时缺失的参数,通过EM算法的极大似然估计求解

——假设的模型是关键

二、半监督SVM

对于SVM,试图找到最大间隔划分超平面

半监督SVM——低密度分隔

考虑未标记样本,S3VM,试图找到能够将两类有标记的样本分开,并且穿过数据的低密度区域的划分超平面

TSVM

思想:对未标记样本,穷举指派分类,尝试对所有的情况训练训练一个间隔最大化的划分超平面!一旦超平面确定,最终的指派的分类就是预测结果

——穷举效率太低

——启发式方法:

——1)先利用已标记样本训练一个分类器,对未标记样本分类,然后问题变成了标准SVM问,即可求得分离超平面和松弛因子

——2)然后在指派的样本中选择可能指派不准确的交换,不断迭代,直到训练的参数效果满足要求

三、半监督聚类

利用已知的一些监督信息,使无监督的聚类取得更好的效果

已知的监督信息分为两类:

1)必连与勿连约束:必连指样本必须属于一个簇,勿连则是必须不属于同一个簇

——约束k均值算法:即在k均值的聚类过程中,要满足约束条件

2)监督信息为少量有标记的样本

——约束种子k均值:直接将有监督信息的样本作为种子初始化k均值算法的k个中心,并且在迭代过程中不改变种子样本的簇的隶属关系

还包括:

图的半监督学习


猜你喜欢

转载自blog.csdn.net/CangHaier/article/details/80640342