[论文 理解] FSA - 인터넷 : 헤드에 대한 학습 세분화 된 구조의 집계는 단일 이미지에서 추정 포즈

FSA-순 : 헤드에 대한 학습 세분화 된 구조의 집계는 단일 이미지에서 추정 포즈

간략한 소개

이 논문은 추정 작업을 포즈 헤드의보다 효과적인 각도를 달성 할 수 있도록주의 메커니즘, 네트워크 구조의 새로운 유형을 제시한다. 그리고 여러 데이터 세트에 SOTA에 도달합니다. 용지가 SSR 그물에 의존하는 태스크 스위치 분류 태스크가 태스크는 수동 설계의 오일러 각의 값을 예측함으로써 이산 빈 매핑 예측 함, 빈 분류 복수 복수로 분할되어 세 예측 기능 파라미터 도모. 저자는 SSR-NET 전화 FSA NET의 2 스트림을 제안하고, 후에는 새로운 높이에 언급 된 결과를 예측했다. 다음은 기사의 내용을 자세히 설명합니다.

SSR-NET-MD

나이가되지 연속이기 때문에 제안 된 SSR-인터넷의이 부분은 SSR-인터넷 네트워크가 원래 나이 예측 된 머리에 평가를, 포즈 적용, 그 본질은 그래서 당신이 직접 할 수있는, 원래 작업 분류 작업의 반환을 변환하는 것입니다 회귀 예측합니다. SSR-인터넷, 즉, 예를 들어, 말을 나이 1-80년, 그것은 세 개의 빈, 어린이, 청소년, 노인의 세 가지 분류 범주로 나눌 수 있습니다 분류하는 분류입니다 다음 원래 이산 빈의 나이 의 특성은, 거친 분류는 더 하위 분류 좋을 것이다이 연구의 결과에 따라 대략적인 분류입니다. 참조 본원 이러한 프로그램은, 헤드 +99 -99의 범위의 소정의 각도 포즈이다하고 거친 분류 3 단계, 즉 (3)으로 분할 함.

어떻게 당신은 그것을 소중히 연속 각도로 결과의 대략적인 분류를지도 하는가?

저자는 다음 식을 제안했다
\ [\ widetilde {Y} = \ sum_ {K = 1이다.} ^ {K} \ VEC {P} ^ {(K)} \ VEC {U} ^ {(K)} \. ]
u는 P가 k 번째 스테이지의 확률 분포이며, k 번째 스테이지 벡터 예측 자 특성을 나타내며, 다음 연속적인 최대 값이 식에 매핑 될 수있다. 저자는 마지막으로 지속적인 결과를 학습 가능 매핑되는 유 범위, 스케일 팩터 물론, 이동 벡터 및 P의 분포를 제한 요소를 확장 및 벡터 벡터 U 역할을 이동해야합니다 생각합니다.

FSA-순

제 위의 SSR-인터넷이 좋은 결과를 달성 할 수있다, 그러나 저자는 기능 융합이 여전히 개선의 여지가 있다고 생각하고, 제안하지만 FSA-넷이. 즉, u는 관심 메커니즘을 사용할 수있는 벡터는 더 나은 표현을 배운다.

다음과 같이 네트워크 구조는 다음과 같습니다

이 구조에 대한 이해 설명, 느낌은 특히 쉬운 일이 아닙니다, 또는 몇 일이 그것의 구조의 피상적 이해의 종류가 있었다 찾았다.

두 스트림의 앞에 말할와 같은 ssrnet 다음 두 스트림 추출 된 피쳐 세분화 구조 응집 년형 던져 잘 이해되지 여기 달성하는 것이다.

궁극적 인 목적은 더 나은 상기 특징 추출지도 기능 승산 같아야 피쳐의 형성의 전단에 대응하는 구조를 설계 특성화 켜짐 때문에 K의 합계는, ((C)의 형상을 특징지도 단계 수득 H) w

그런 다음 영국에서 득점하고,이 점수는 전체 픽셀 영국 기능 맵 점수이며, 저자가 제시 운영 세 채점 기능을 설계

  1. 컨볼 루션의 1x1, 채널 1의 출력
  2. 채널 분산, 차원이 찾는 채널에 분산
  3. 직접 1 상수

스코어 맵 수득 이러한 형상 AK로는 (H, w)

그런 다음 필요가 또 다른 기능 영국 식으로 구조를 설계합니다.

하기 식 준다에서
\는 [\ {틸드있는 U-S_k} = * _K U-는 \]
U 자들은 어디 = U1은, U2는 ... 영국] , 형상 (K, C, H, w의가 ) 그 다음 N (재편되고 , c), N = K *의 * H는 w

저자는 다음 Sk를 배울 AK로 및를 사용하고자하고 다른
\는 [S_k = CM_k M_k = \\ 시그마 (\ f_m (a_k) \\) C = 시그마 (\ F_c (A))는 \]
A는 상기와 동일 AK로의 CONCAT. AK는 형태 (H, w), 형상 A는이다 (K, H, w).

우선 MK를 찾고, AK로 완전히 제 mK의 접속 (w 엠케이 H)의 변화를 형성하고하게 바꿀 (m, N)

m은 hyperparametric이고, N = K *의 * H는 w

이어서 C를 찾고, C는 (n`, m)을 재 형성 하였다 (n`xm) 다음에, (N)에 처음 연결 전체를 바꿀

이 결과, 직접 소요될 수
[\ 틸드 {U} _k \
{N * C ^ \ 프라임} \ \ \ 재를 ^] 의 일부로서 기능있어서, 나중에 남아 및 SSR 넷 사용한 퓨전 세 가지 모듈의 양을 예측. 그런 다음 식 (1)의 최종 출력을 제공한다.

혁신을 이해하는 것은주의 집중 메커니즘 재 특성화 기능을 사용하지만,이 작업의 정확도를 향상시킬 수있다.

본질적 기능 피쳐를 정의하기 위해 평가하고 더 나은 특성 표시를 획득하기 위해 변환이 전환 효과의 원래 기능을 학습 주목 맵을 평가 점수.

또한 실험 뒤에 저자는 매우 양심을 수행.

다른

pytorch 复 现 : ALL

원본 용지 : https://github.com/shamangary/FSA-Net/blob/master/0191.pdf

추천

출처www.cnblogs.com/aoru45/p/11531177.html