机器学习:SVM的最朴素代码实现,第一个变量遍历样本获得,第二个变量随机选择

SVM的最朴素代码实现:

算法简单步骤:
1、遍历样本作为第一个变量a1,根据旧的a和b求得误差,满足KKT条件换下一个样本;不满足,
2、不满足的话,随机选取第二个变量a2(不能和第一个相同);
3、根据解析式求得a2;
4、根据解析式求a2的约束上界和下界;
5、根据4的约束求得新的a2;
6、根据解析式求得a1;
7、根据解析式求得b;
8、返回到第一步根据新得a和b求误差

代码实现:

第一个变量遍历样本获得,主要步骤如下:

def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
    """
    简化版SMO算法
    :param dataMatIn:       X
    :param classLabels:     Y
    :param C:               惩罚参数
    :param toler:           容错率
    :param maxIter:         最大循环次数
    :return:
    """
    dataMatrix = np.array(dataMatIn)
    # 备注针对行向量转化为列向量需要添加[]
    labelMat = np.array([classLabels]).T
    b = 0
    m,n = np.shape(dataMatrix)  # m:=训练实例的个数;n:=每个实例的维度
    alphas = np.zeros((m,1),dtype=float)
    # 迭代次数
    iter = 0
    while (iter < maxIter):
        alphaPairsChanged = 0   #alpha是否已经进行了优化
        # 遍历样本点
        for i in range(m):
            # 在初始的alpha下计算每一个样本点的预测值
            #   w = alpha * y * x;  f(x_i) = w^T * x_i + b
            w_ = np.dot(np.multiply(alphas,labelMat).T,dataMatrix)
            fXi = np.dot(w_, dataMatrix[i,:].T) + b
#            fXi = float(np.multiply(alphas,labelMat).T*dataMatrix*dataMatrix[i,:].T) + b     
            # 计算预测值和实际值的误差
            Ei = fXi - float(labelMat[i])   
            #得到误差,如果误差太大,检查是否可能被优化     
            # y[i]*g(x_i)-1  <0 and alphas[i] < C,这是违反KKT的情况
            # y[i]*g(x_i)-1  >0 and alphas[i] > 0,这个也是违反KKT的情况
            # 这里是简化处理,没有选择最严重的样本点,只要不满足,就当第一个变量找到了
            if ((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or ((labelMat[i]*Ei > toler) and (alphas[i] > 0)): #必须满足约束
                # 随机选择第二个样本点作为变量
                j = selectJrand(i,m)
                # 计算第二个样本的预测值
                fXj = np.dot(np.multiply(alphas,labelMat).T,np.dot(dataMatrix,dataMatrix[j,:].T)) + b
#                fXj = float(np.multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b
                # 计算第二个样本的误差
                Ej = fXj - float(labelMat[j])
                # alpha_i,alpha_j的旧值,教材中的α_1^old和α_2^old
                alphaIold = alphas[i].copy(); alphaJold = alphas[j].copy()  
                # 因为存在约束,计算alpha_j的界
                if (labelMat[i] != labelMat[j]):                                          
                    # 两者所在的对角线段端点的界
                    L = max(0, alphas[j] - alphas[i])
                    H = min(C, C + alphas[j] - alphas[i])
                else:
                    L = max(0, alphas[j] + alphas[i] - C)
                    H = min(C, alphas[j] + alphas[i])
                # 假如alpha_j的上界=下界,退出本次选择,选择下一个样本点,
                # 因为alpha只有一个取值,假如alpha!=H就是无效的
                if L==H: print("L==H"); continue
                # 计算-dK
                # Eta = -(2 * K12 - K11 - K22),且Eta非负,此处eta = -Eta则非正
                eta = 2.0 * np.dot(dataMatrix[i,:],dataMatrix[j,:].T) - np.dot(dataMatrix[i,:],dataMatrix[i,:].T) - np.dot(dataMatrix[j,:],dataMatrix[j,:].T)
                if eta >= 0: print("eta>=0"); continue
                # 根据解析式求alpha_j
                alphas[j] -= labelMat[j]*(Ei - Ej)/eta
                # 根据约束条件求得满足约束的alpha_2
                alphas[j] = clipAlpha(alphas[j],H,L)
                #如果内层循环通过以上方法选择的α_2不能使目标函数有足够的下降,那么放弃α_1
                if (abs(alphas[j] - alphaJold) < 0.00001): print("j not moving enough"); continue
                # 根据解析式结果计算α_1
                alphas[i] += labelMat[j]*labelMat[i]*(alphaJold - alphas[j])
                # 根据解析式计算b,可以求出2个b,根据是否满足KKT条件,如果两者均0<a<C满足KKT,b1 = b2
                # 如果a_1,a_2是0或者C,那么在b1,b2之间的b都是可行b,求他们均值就行了
                b1 = b - Ei- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[i,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i,:]*dataMatrix[j,:].T
                b2 = b - Ej- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[j,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j,:]*dataMatrix[j,:].T
                if (0 < alphas[i]) and (C > alphas[i]): b = b1
                elif (0 < alphas[j]) and (C > alphas[j]): b = b2
                else: b = (b1 + b2)/2.0
                # 标记一下该样本修改
                alphaPairsChanged += 1
                print("iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged))
        # 假如所有的样本都遍历了一遍,没有不满足kkt的样本点,迭代次数加1
        if (alphaPairsChanged == 0): iter += 1
        # 只要一次迭代里面修改过alpha,就重复本次迭代
        else: iter = 0
        print("iteration number: %d" % iter)
    return b,alphas

第二个变量随机选择:

def selectJrand(i,m):
    """
    随机从0到m挑选一个不等于i的数
    :param i:
    :param m:
    :return:
    """
    j=i             #排除i
    while (j==i):
        j = int(np.random.uniform(0,m))
    return j

计算w:

w是非必须计算的,因为它就是alpha的组合而已。

def calcWs(alphas,dataArr,classLabels):
    """
    根据支持向量计算分离超平面(w,b)的w参数
    :param alphas:拉格朗日乘子向量
    :param dataArr:数据集x
    :param classLabels:数据集y
    :return: w=∑alphas_i*y_i*x_i
    """
    X = np.array(dataArr); labelMat = np.array([classLabels]).transpose()
    m,n = np.shape(X)
    w = np.zeros((n,1))
    for i in range(m):
        w += np.multiply(alphas[i]*labelMat[i],X[i,:].T)
    return w

其他:

def clipAlpha(aj,H,L):
    """
    将aj剪裁到L(ow)和H(igh)之间
    :param aj:
    :param H:
    :param L:
    :return:
    """
    if aj > H:
        aj = H
    if L > aj:
        aj = L
    return aj

def loadDataSet(fileName):
    """
    加载数据集
    :param fileName:
    :return:
    """
    dataMat = []; labelMat = []
    fr = open(fileName)
    for line in fr.readlines():
        lineArr = line.strip().split('\t')
        dataMat.append([float(lineArr[0]), float(lineArr[1])])
        labelMat.append(float(lineArr[2]))
    return dataMat,labelMat
    

猜你喜欢

转载自blog.csdn.net/weixin_40759186/article/details/85781959