04 Algoritmo supervisado - máquina de vectores de soporte

1. Máquina de vectores de soporte

1.1 Definición

El problema que debe resolver la máquina de vectores de soporte (Support Vector Machine) ¿
Qué tipo de límite de política es el mejor?
Si los datos de las características en sí son difíciles de distinguir, ¿qué debemos hacer? ¿
Qué pasa con la complejidad computacional? ¿Se puede aplicar de manera práctica? ?

Support Vector Machine (Support Vector Machine, SVM) es un tipo de clasificador lineal generalizado (clasificador lineal generalizado) que realiza una clasificación binaria de datos en forma de aprendizaje supervisado (aprendizaje supervisado).

Su límite de decisión es el hiperplano de margen máximo resuelto para las muestras de aprendizaje.

Encuentre algunos datos en el borde del conjunto (llamado vector de soporte (Support Vector)), use estos puntos para encontrar un plano (llamado superficie de decisión), de modo que la distancia entre el vector de soporte y el plano sea la mayor.

Cualquier hiperplano se puede describir mediante la siguiente ecuación lineal: WT x + b = 0 { {\rm{W}}^{\rm{T}}}{\rm{x}} + b = 0W.T x+b=0

Distancia del punto al plano: WT x ′ = − b , WTX ′ ′ = − b { {\rm{W}}^{\rm{T}}}{\rm{x' = }} - b,{W ^T}X'' = -bW.T x=b ,W.TX _"=- segundo

distancia ( x , b , w ) = ∣ WT ∥ W ∥ ( x − x ′ ) ∣ = 1 ∥ W ∥ ∣ WT x + b ∣ {\rm{distancia(x,b,w) = }}\left| { { { { {\rm{W}}^{\rm{T}}}} \over {\left\| W \right\|}}(x - {\rm{x'}})} \right|{\rm{ = }}{ { \rm{1}} \over {\left\| W \right\|}}\left| { { {\rm{W}}^{\rm{T}}}x + b} \right|distancia ( x ,b ,w )= W W.T( xX ) =W 1 W.T x+b

1.2 margen blando SVM

1.3 Transformación del kernel SVM

La función del núcleo puede asignar muestras del espacio original a un espacio de características de mayor dimensión, de modo que las muestras sean linealmente separables en el nuevo espacio.

  • Transformación lineal del kernel: K ( xi , xj ) = xi T xj K({x_i},{x_j}) = x_i^T{x_j}k ( xyo,Xj)=XiTXj
  • Transformación del núcleo polinomial: K ( xi , xj ) = ( xi T xj ) d K({x_i},{x_j}) = {(x_i^T{x_j})^d}k ( xyo,Xj)=( xiTXj)d
  • 高斯核函数:K ( xi , xj ) = exp ⁡ ( − ∥ xi − yi ∥ 2 y 2 ) K({x_i},{x_j}) = \exp ( - { {\left\| { {x_i } - {y_i}} \right\|} \sobre {2{y^2}}})k ( xyo,Xj)=exp ( -2 años2∥x _yoyyo)

Supongo que te gusta

Origin blog.csdn.net/qq_45801179/article/details/132392869
Recomendado
Clasificación