Python_サポートベクターマシン分類器

SVMは(ベクターマシン、SVMをサポートすることにより、クラスある)教師あり学習教師あり学習)モード・データ、バイナリ分類分類(線形一般の一般化線形分類器を持つ)、決定境界学習サンプルを解決するための最大のマージンがあるが、超平面(最大マージン超平面

SVM ヒンジ損失関数(使用ヒンジ損失)を算出経験的リスク(経験的リスクが)を添加し(溶液系構造を最適化する正則化項のリスク構造リスク)は、疎かつ堅牢な分類子です。SVM による核方法カーネル法、非線形分類)、(学習の共通のコアであるカーネル学習1)の方法を。

SVMはで提案された1964年二十世紀で、90 急速な発展の年後との改善と拡張アルゴリズムの一連の導出顔認識テキスト分類のようなパターン認識をパターン認識問題に適用されています)。

import numpy as np
from scipy import io as spio
from matplotlib import pyplot as plt
from sklearn import svm


def SVM():
    '''data1——线性分类'''
    data1 = spio.loadmat('data1.mat')
    X = data1['X']
    y = data1['y']
    y = np.ravel(y)
    plot_data(X, y)

    model = svm.SVC(C=1.0, kernel='linear').fit(X, y)  # 指定核函数为线性核函数
    plot_decisionBoundary(X, y, model)  # 画决策边界
    '''data2——非线性分类'''
    data2 = spio.loadmat('data2.mat')
    X = data2['X']
    y = data2['y']
    y = np.ravel(y)
    plt = plot_data(X, y)
    plt.show()

    model = svm.SVC(gamma=100).fit(X, y)  # gamma为核函数的系数,值越大拟合的越好
    plot_decisionBoundary(X, y, model, class_='notLinear')  # 画决策边界


# 作图
def plot_data(X, y):
    plt.figure(figsize=(10, 8))
    pos = np.where(y == 1)  # 找到y=1的位置
    neg = np.where(y == 0)  # 找到y=0的位置
    p1, = plt.plot(np.ravel(X[pos, 0]), np.ravel(X[pos, 1]), 'ro', markersize=8)
    p2, = plt.plot(np.ravel(X[neg, 0]), np.ravel(X[neg, 1]), 'g^', markersize=8)
    plt.xlabel("X1")
    plt.ylabel("X2")
    plt.legend([p1, p2], ["y==1", "y==0"])
    return plt


# 画决策边界
def plot_decisionBoundary(X, y, model, class_='linear'):
    plt = plot_data(X, y)

    # 线性边界        
    if class_ == 'linear':
        w = model.coef_
        b = model.intercept_
        xp = np.linspace(np.min(X[:, 0]), np.max(X[:, 0]), 100)
        yp = -(w[0, 0] * xp + b) / w[0, 1]
        plt.plot(xp, yp, 'b-', linewidth=2.0)
        plt.show()
    else:  # 非线性边界
        x_1 = np.transpose(np.linspace(np.min(X[:, 0]), np.max(X[:, 0]), 100).reshape(1, -1))
        x_2 = np.transpose(np.linspace(np.min(X[:, 1]), np.max(X[:, 1]), 100).reshape(1, -1))
        X1, X2 = np.meshgrid(x_1, x_2)
        vals = np.zeros(X1.shape)
        for i in range(X1.shape[1]):
            this_X = np.hstack((X1[:, i].reshape(-1, 1), X2[:, i].reshape(-1, 1)))
            vals[:, i] = model.predict(this_X)

        plt.contour(X1, X2, vals, [0, 1], color='blue')
        plt.show()


if __name__ == "__main__":
    SVM()

著者:WangB

公開された142元の記事 ウォンの賞賛213 ・は 10000 +を見て

おすすめ

転載: blog.csdn.net/s0302017/article/details/103947043