기본 알고리즘 빗질 (A) - 기계 학습의 개요

기계 학습 개요

1. 기계 학습 분류

1.1지도 학습 :

알려진 매개 변수의 집합으로 분류를 조정 성분의 수업은 교사 또는 학습 감독 훈련으로 알려진 프로세스의 요구 성능에 도달합니다. 입출력 주로 분류 및 예측에 이용할 포함 요구의 트레이닝 세트를지도 학습.

1.2 자율 학습 :

데이터는 데이터가 매우 유사하다 결정하고, 특정 구조, 샘플 데이터의 구조 특성 세트로부터 디스커버리 암시.

1.3 반지도 학습

감독 및 교육 단계에서 사용 자율 학습을 결합 연구, 태그가 지정되지 않은이며, 태그 데이터는 속성 사이의 관계의 구조를 배울뿐만 아니라, 출력 분류 모델은 예측하기.

1.4 강화 학습 :

또한 보강 학습, 학습 및 강화 학습 평가로 알려진 강화 학습 (보강 학습, RL)은, 기술과 학습을 통해 환경과 상호 작용하는 프로세스에서 에이전트 (에이전트)를 해결하기 위해 사용되는 기계 학습 패러다임 방법 중 하나이다 전략 문제에 최대 수익을 달성하기 위해 또는 특정 목표를 달성하기 위해.

2. 기계 학습 알고리즘

2.1 선형 알고리즘 (선형 알고리즘) :

선형 회귀 (선형 회귀), 올가미 회귀 (올가미 회귀), 리지 회귀 (리지 회귀), 로지스틱 회귀 분석 (로지스틱 회귀)

2.2 의사 결정 나무 (의사 결정 나무)

ID3, C4.5, 쇼핑 카트에 담기

2.3 서포트 벡터 머신 (SVM)

2.4 나이브 베이 즈 (나이브 베이 즈 알고리즘) :

나이브 베이 즈 (나이브 베이 즈), 나이브 베이 즈 가우스 (가우스 나이브 베이 즈), 다항식 나이브 베이 즈 (다항 나이브 베이 즈), 믿음 네트워크 (베이지안 믿음 네트워크, BBN), 베이지안 네트워크 (베이지안 네트워크, BN )

2.5 K 가까운 이웃 분류 알고리즘 (KNN)

2.6 클러스터링 (클러스터링 알고리즘) :

K-수단, K-중앙값, 기댓값 최대화 알고리즘 (기대 극대화, EM) 클러스터링 계층 (계층 클러스터링)

2.7 임의의 숲 (임의의 숲)

2.8 차원 감소 알고리즘 (차수 감소 알고리즘)

2.9 구배 부스팅 알고리즘 (구배 알고리즘 부스팅)

GBM, XGBoost, LightGBM, CatBoost

2.10 깊이 학습 알고리즘 (깊은 학습 알고리즘) :

길쌈 신경망 (길쌈 신경망, CNN), 재발 성 신경 네트워크 (재발 성 신경 회로망, RNNs), 단기 및 장기 메모리 네트워크 (장기 단기 메모리 네트워크, LSTMs), 스태커 자동 인코더 (누적 자동 인코더) 깊이 볼츠만 기계 (깊은 볼츠만 기계, DBM), 믿음 네트워크의 깊이 (깊은 믿음 네트워크, DBN)

3. 기계 학습 손실 함수

3.1 0-1 손실 함수


동일하다고 할 때 <T, 즉, | | 0-1 손실 함수가 만족하는 조건을 완화하는 것도 가능하다 Y-F (X) :
그림 삽입 설명 여기

3.2 절대치 손실 함수

그림 삽입 설명 여기

3.3 평방 손실 함수

그림 삽입 설명 여기

대수 손실 함수

그림 삽입 설명 여기

기계 학습의 최적화 4. 방법

그림 삽입 설명 여기

그림 삽입 설명 여기

그림 삽입 설명 여기

그림 삽입 설명 여기

그림 삽입 설명 여기

출시 팔 개 원래 기사 · 원 찬양 한 · 전망 (194)

추천

출처blog.csdn.net/Moby97/article/details/103898430