728x90
반응형

Scaleble and Efficient Object Detection

Backbone : EfficientNet

Neck : FPN을 BiFPN으로 바꿈

 => FPN이 성과를 거두자 발전시키려는 노력

Compound Scailing : 한가지 요소에 가중치가 아닌 합쳐서

 

 

BiFPN

 

Compound Scailing 

 

 

 

EfficientDet 성능

적은 연산수, 적은 파라미터 수에 비해 상대적으로 타모델보다 높은 모델 예측성능을 나타냄

D0는 yolo와도 맞먹고, flops도 압도적으로 적다.

 

 

 

 

BiFPN ( Bi Directional FPN

- Cross Scale Connections

기존 FPN : TOP DOWN

- Feature Fusion : feature가 아래로 내려가면서 합쳐짐

중국 PANET : BOTTON UP

=> FEATURE 가 풍부해짐

BiFPN : Cross Scale

input feature를 서로 더해서 반영

 

- Weighted Feature Fusion

- 가중치를 어떻게 부여할 것인가에 대한 문제

 

초기 FPN : RetinaNet에서의 가능성

- bottom-up pathway => top-Down Pathway 

- Lateral Connection + upsampling

 

FPN의 발전 : Path Aggregation Network 

- 내려가던 것에서 올라가던 것

Nas-FPN

- 수천시간의 강화학습을 통해서 최적의 네트웍을 찾아냄

 

BiFPN

- 최상위, 최하위 feature map을 생략

- 원본 feature에서도 추출

- 3개의 추출 : 원본 feature, 하위 feature, Lateral Connection

 

- repeated block

=> compound Scaling으로 block을 몇개 할지 정함

 

Weighted Feature Fusion

서로 다른 resolution (Feature map size)를 가지는 input feature map들은 output feature map을 생성하는 기여도가 다르기 때문에 서로 다른 가중치를 부여하여 합쳐질 수 있어야 한다.

 

- Fast Normalized fusion

 

Unbounded Fusion

- 입력 Feature map에 가중치를 곱해서 출력 feature map  생성

- 여기서 Wi는 정해진 값이 아니라 학습 시켜서 도출된 weight임.

- 연산량 감소를 위해 BiFPN NetWork 구현 시 separable Convolution 적용

 

 

 

 

반응형

+ Recent posts