Scaleble and Efficient Object Detection
Backbone : EfficientNet
Neck : FPN을 BiFPN으로 바꿈
=> FPN이 성과를 거두자 발전시키려는 노력
Compound Scailing : 한가지 요소에 가중치가 아닌 합쳐서
BiFPN
Compound Scailing
EfficientDet 성능
적은 연산수, 적은 파라미터 수에 비해 상대적으로 타모델보다 높은 모델 예측성능을 나타냄
D0는 yolo와도 맞먹고, flops도 압도적으로 적다.
BiFPN ( Bi Directional FPN
- Cross Scale Connections
기존 FPN : TOP DOWN
- Feature Fusion : feature가 아래로 내려가면서 합쳐짐
중국 PANET : BOTTON UP
=> FEATURE 가 풍부해짐
BiFPN : Cross Scale
input feature를 서로 더해서 반영
- Weighted Feature Fusion
- 가중치를 어떻게 부여할 것인가에 대한 문제
초기 FPN : RetinaNet에서의 가능성
- bottom-up pathway => top-Down Pathway
- Lateral Connection + upsampling
FPN의 발전 : Path Aggregation Network
- 내려가던 것에서 올라가던 것
Nas-FPN
- 수천시간의 강화학습을 통해서 최적의 네트웍을 찾아냄
BiFPN
- 최상위, 최하위 feature map을 생략
- 원본 feature에서도 추출
- 3개의 추출 : 원본 feature, 하위 feature, Lateral Connection
- repeated block
=> compound Scaling으로 block을 몇개 할지 정함
Weighted Feature Fusion
서로 다른 resolution (Feature map size)를 가지는 input feature map들은 output feature map을 생성하는 기여도가 다르기 때문에 서로 다른 가중치를 부여하여 합쳐질 수 있어야 한다.
- Fast Normalized fusion
Unbounded Fusion
- 입력 Feature map에 가중치를 곱해서 출력 feature map 생성
- 여기서 Wi는 정해진 값이 아니라 학습 시켜서 도출된 weight임.
- 연산량 감소를 위해 BiFPN NetWork 구현 시 separable Convolution 적용
'Computer_Science > RetinaNet' 카테고리의 다른 글
11-2~3. tensorflow hub의 efficientDet 모델을 이용한 inference 실습 (0) | 2021.11.30 |
---|---|
11-1. AutoML EfficientDet 패키지 소개 (0) | 2021.11.25 |
10-7. Compound Scaling (0) | 2021.10.29 |
10-6. EfficientNet (0) | 2021.10.29 |
10-1~3. RetinaNet 이해 (0) | 2021.10.27 |