네트워크 스타일 자체 라벨링 방법에 대한 증분 빌드 깊이 학습 세미 감독

1. 요약

    성공은 잘 표시 대규모 훈련 데이터의 신경 네트워크의 깊이에 부분적으로 기인한다. 그러나 매우 어려운 정보에 대한 액세스를 라벨 현대적인 데이터 수집의 성장 크기와. 본 논문은 네트워크 스타일 대결을 생성 반 감독 자기 라벨링 방법에 따라 증분 깊이 연구를 제안, 가상 태그 데이터 분배를 통해 교육 과정을 촉진 할 수있는 방법이 표시되지 않은 계속. 즉, 가상의 태그 할당 처리는, 용지가 자동 표시 시각에 기초하는 방법을 소개한다. 그런 다음, 교육 과정에서 데이터를 동적으로 더 많은 가상 태그를 할당하기 위해, 논문 심사 증분 업데이트 라벨 및 단계적 접근 방식을 채택한다. 마지막으로, 논문은 밸런스 훈련 샘플 중 항목 (대차 요인 기간, BT), 정보의 손실을 균형 추가 요소를 소개합니다.

2. 소개

    화학식 (간스)를 사용하여 네트워크에 대해 반 감독 분류를 들어, 대부분의 네트워크가 GAN K의 클래스에 대응하는 종래의 판별을 변경하여 생산 K 개의 출력에 사용된다. 상기 표지 된 트레이닝 데이터를 이용하기 위해, 일반적으로 판별을 식별 할 수있는 능력을 향상시키기 위해 발전기의 부가 부 (K + 1) 번째 클래스를 생성한다. 후자의 기능은 실제 데이터와 잘못된 데이터를 구별에 대한 더 많은 정보를 추출 할 수 있습니다.

    용지 증분 마킹 방법합니다 (ISL -GaN)에서 탐색 전용 및 GAN 분야에서 분류 성능을 향상시키기 위해서는 강력한 SSL (SSL) 프레임 워크에 임베디드.

3. 방법

    첫째, 상단 라벨의 예측의 정확성은 훈련 과정에서, 태그 데이터 및 레이블이없는 데이터를 포함하여 훈련 데이터의 대부분은 정확한 예측되고있다. 더 시험에 노이즈 마커의 모델의 견고성은 종이 라벨 오류의 일정 비율은 최종 테스트의 정확도에 영향을 미치지 않는 것으로, 모델 교육에 몇 가지 예제 오류 플래그를 추가했다.

    다음은 제안 된 종이 모델을 설명합니다. .도 1에 도시 된 바와 같이, 제안 된 모델은 두 부분으로 구성된다 : 첫 번째 부분은 반 GAN 관리 대상 모델의 일관성에 기초한다. 두 번째 부분은 가상 라벨 레이블이 지정되지 않은 데이터를 할당에 대한 책임, 정기적으로 시대는 태그 훈련 데이터 세트를 업데이트하기 위해 높은 신뢰성 데이터에 대한 가상 태그를 지정합니다.

그림 삽입 설명 여기

진행 GAN (isli -GAN) 이후 그림 1. 증분 마크. 모델의 두 부분에 회색과 오렌지. 다른 형태의 입력 데이터의 다른 라벨을 나타내는 데이터는 푸른 회색으로 표시 태그없는

    네트워크 안정성, 오 분류의 낮은 확률의 트레이닝 샘플 출력의 다른 단계 알려진 쉽게 오 분류 된 샘플들은 필연적 샘플 출력의 불안정성을 초래할 것이다 분류의 가장자리 근처에 발생한다. 이 마음으로 순서대로 각 트레이닝 샘플의 안정성을 보장하기 위해 과거의 출력의 평균을 계산 한 용지 선택, 비교적 안정을 유지하고 가상 라벨을 확보한다.

    이 방법을 사용하여 종이와 훈련 데이터 세트를 업데이트 가상 라벨 레이블이 지정되지 않은 데이터를 설정하여 계정에 올바르게 반 감독 방법에 의해 예측 고속 데이터 레이블의 최종 연구 샘플을 복용합니다. 비 표지 샘플 카테고리 라벨을 여러 번 할당 된 경우, 샘플의 가상 레이블로이 클래스 레이블을 넣어. 훈련하는 동안, 하나 개의 레이블이없는 샘플을 효율적으로하여 분류 정확도를 증가, SSL 표시된 샘플의 수를 늘릴 수, 가상 태그를 지정합니다.

    여기, 우리는 샘플 가상 태그가 할당 될 때 신뢰성의 임계 값을 설정해야합니다. 이 임계 값이 너무 낮습니다, 너무 높은 수 없습니다. 너무 높게 설정하면 100 % 신뢰가 발생합니다 말 : 계산 된 손실 값이 0, 모델에 더 이상의 업데이트 때 우리가 업데이트되는 데이터 모델의이 부분을 사용하는 경우. 너무 낮은 데이터의이 부분에 발생하는 것은 신뢰,이 아이디어는 학습 데이터에 반하는 위해 우리는 그것을 사용할 수 없습니다. 따라서, 가상 표지 된 샘플의 기여를 증가시키기 위하여 낮은 손실 모델을 장착 한 원래 교차 엔트로피 손실 CE에 인자 항목 (BT) EXP (PIN)를 균일하게 배분 용지 다음 수식 표현의 감독의 마지막 손실 (상세 여기에 원지 모델 손실 함수, 참조 식 도입 만 밸런스 계수 소정 기간)를 참조 :
그림 삽입 설명 여기
PI는 클래스에 속하는 샘플의 확률을 나타내는 I, 클래스 I의 1 핫 부호화 값 이순신 나타내는. 매개 변수 n은 무게 균형 요인의 체중 감량에 대한 제어이며, 기본값은 2.0입니다.

4. 결론

    실험 결과 방법 MNIST 최신 SSL 및 SVHN CIFAR-10 데이터 세트의 결과를 얻을 수 있음을 보여준다. 특히, 샘플 라벨 조건 불리 성능의 용지 모델. 1,000 만 표시된 이미지 데이터 세트의 CIFAR-10의 측정 오차의 11.2 %가 달성 될 수 있으며, (1000) 500 SVHN 표지 된 데이터 세트에 대해, 3.5 %의 거의 동일한 성능 테스트 오류를 ​​달성 할 수있다.
그림 삽입 설명 여기

더 흥미로운 정보 스캔 코드의 우려 BBIT
출시 여섯 개 원래 기사 · 원의 칭찬 0 · 조회수 39

추천

출처blog.csdn.net/ShenggengLin/article/details/105301847