sklearn.svm.OneClassSVMユーザーマニュアル(中国語)

class sklearn.svm.OneClassSVM(kernel='rbf', degree=3, gamma='scale', coef0=0.0, tol=0.001, nu=0.5, shrinking=True, cache_size=200, verbose=False, max_iter=-1)

監視なしの異常値検出。
高次元分布のサポートを推定します。
この実装はlibsvmに基づいています。異常検出の詳細について
は、ユーザーマニュアルをご覧ください。

パラメータ(カーネル、ガンマ、nu、tolがより重要)

カーネル:文字列、オプション(デフォルト= 'rbf')、
カーネル関数、文字列タイプ、オプション、デフォルトは 'rbf'、つまり、ガウスカーネル
はアルゴリズムで使用されるカーネルのタイプを指定します。「linear」、「poly」、「rbf」、「sigmoid」、「precomputed」、または呼び出し可能である必要があります。指定しない場合、「rbf」が使用されます。呼び出し可能なオブジェクトが指定されている場合、それはカーネル行列を事前計算するために使用されます。

程度:int、オプション(デフォルト= 3)
順序、成形、オプション。
多項式カーネル関数(「poly」)の次数。他のすべてのカーネルでは無視されます

ガンマ:{'Scale'、 'auto'}またはfloat、オプション(デフォルト= 'scale')
カーネル係数、{'scale'、 'auto'}または浮動小数点タイプ、オプション、デフォルトは 'scale'
"rbf" 、「ポリ」および「シグモイド」カーネル係数。
gamma = 'scale'(デフォルト)が渡された
場合、ガンマ値として1 /(n_features * X.var())が使用されます。'auto 'の場合、1 / n_featuresが使用されます。
バージョン0.22で変更:gammaのデフォルト値が「auto」から「scale」に変更されました。

coef0:フロート、オプション(デフォルト= 0.0)
内部パラメーター、浮動小数点型、オプション、デフォルトは0.0
カーネル関数の独立パラメーター 「ポリ」と「シグモイド」にのみ意味があります。

通行料:フロート、オプションの
ストップ標準メトリック

ではありません:フロート、オプション
のトレーニングエラースコアの上限、サポートベクタースコアの下限。間隔(0、1)内にある必要があります。デフォルトでは、0.5が使用されます。

収縮:ブール値、オプションの
ブール値、省略
された発見的方法を使用するかどうかのオプション

cache_size:Float、オプションで
カーネルキャッシュのサイズ(MB単位)を指定します。

冗長:Bool、デフォルト:False
は詳細な出力を有効にします。この設定はlibsvmの各プロセスのランタイム設定を利用することに注意してください。この設定が有効になっている場合、マルチスレッドのコンテキストでは設定が正しく機能しない可能性があります。

max_iter:Int、オプション(デフォルト= -1)
は、ソルバー内の反復にハード制限を設定するか、-1(制限なし)を設定します。

の属性

サポート_:列ベクトル(n_SV)
サポートベクトルインデックス

support_vectors_:マトリックス(n_SV、n_features)
サポートベクトル

dual_coef_:ラインベクトル、形状= [1、n_SV]
フィーチャに割り当てられた重み(元の問題の係数)。線形コアの場合にのみ使用できます。
coef_は、dual_coef_およびsupport_vectors_から派生した読み取り専用属性です。

切片_:行ベクトル、形状= [1、]
決定関数の定数。

オフセット_:浮動小数点
オフセットは、元のスコアに基づいて決定関数を定義するために使用されます。次の関係があります:Decision_function = score_samples-offset_。このオフセットはintercept_の反対であり、他の外れ値検出アルゴリズムとの一貫性のために提供されています。

fit_status_:整数
インストールが正しい場合は0、それ以外の場合は1(警告が発行されます)

from sklearn.svm import OneClassSVM
X = [[0], [0.44], [0.45], [0.46], [1]]
clf = OneClassSVM(gamma='auto').fit(X)
clf.predict(X)
##array([-1,  1,  1,  1, -1])
clf.score_samples(X)  # doctest: +ELLIPSIS
##array([1.7798..., 2.0547..., 2.0556..., 2.0561..., 1.7332...])

方法

Decision_function(self、X)
分離する超平面までの距離。
サンプルが分離超平面の内側にある場合、距離は正であり、そうでない場合、距離は負です。
パラメーター:
X:形状(n_samples、n_features)
戻り値:
dec:形状(n_samples、)
戻りサンプル決定関数

fit(self、X、y = None、sample_weight = None、** params)
検出サンプルセットのソフト境界
パラメーター X
X:形状(n_samples、n_features)
サンプルセット。ここで、n_samplesはサンプルの数であり、n_featuresは特徴の数です。

sample_weight
サンプルあたりの形状(n_samples、)重量。各サンプルのCを再校正します。重みが大きいほど、分類子はこれらのポイントをより強調します。

y:無視され、
未使用で、APIの一貫性が規約によって提供されます。


自分自身を返す:オブジェクト

注意
XがC順の連続配列でない場合は、それをコピーしてください。

fit_predict(自分、X、y =なし)
Xでフィッティングを実行し、Xのラベルを返します。
外れ値の場合は-1、グループ内の値の場合は1を返します。

パラメーター
X:形状(n_samples、n_features)
入力データ

y:無視

get_params(self、deep = True)
この推定のパラメーターを取得します。

パラメータ
deep:ブール値。デフォルトはTrueです
。Trueの場合、推定量と推定量を含むサブオブジェクトのパラメータが返されます。

戻り値:パラメータ名がその値にマップされます。

予測(自己、X)
Xのサンプルで分類を実行します。モデルのタイプの場合、+ 1または-1を返します。

パラメータ
X:shape =(n_samples、n_features)
kernel = " precomputed "の場合、Xの予想される形状は[n_samples_test、n_samples_train]です。


Xのカテゴリラベルを返す

score_samples(self、X)
サンプルの元のスコアリング関数。

パラメータ
X:(n_samples、n_features)

Return
サンプルの(シフトされていない)スコアリング関数を返します。

set_params(self、** params)
この推定器のパラメーターを設定します。
このメソッドは、単純な推定器やネストされたオブジェクト(パイプなど)に適しています。

パラメーター
** params:推定パラメーター


推定量の例を返します

公開された41件の元の記事 賞賛された13件 訪問6692

おすすめ

転載: blog.csdn.net/comli_cn/article/details/103898791