Deep Learning

Efficient-Net

Levery 2024. 10. 18. 11:54

EfficientNet

기존 방법의 문제점
Width(Feature Map, 채널 수)
Width와 성능은 비례하게 증가, 일정 수치 이상에서는 증가 폭 감소. (효율 하락)

Depth(Layer, 신경망 층)
Depth와 성능이 비례해서 증가, 일정 수치 이상부터는 성능하락. (해당 지점을 찾아서 최적화 해야함)

Resolution(Input Image, Feature Map의 해상도)
R(해상도)과 성능은 비례하게 증가, 일정 수치 이상에서는 증가 폭 감소(효율 하락)

W는 각 층의 길이 / D는 각 층의 두께 / R은 데이터의 크기


최적의 Compound Scale Up(CSU) > 모든 모델에 적용가능함

1. Depth
Convolution Layer가 a(alpha)배 증가 시 FLOPS도 a배 증가(레이어 증가 = 연산량 a배 증가)
2. Width
Width가 b(beta)배 증가 시 FLOPS는 b²배 증가(각 레이어의 폭 증가 = 연산량 b²배 증가
3. Resolution
Resolution가 γ(gamma)배 증가 시, FLOPS는 γ²배 증가합니다. (해상도 증가 = 연산량 γ²배 증가)


NasNet으로 BaseModel 설계 / Small Grid Search방식으로 CSU진행해서 H_PM 최적화