You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
mosaic으로 offline augmentation한 데이터로 knet+upernet 학습시킬 때 loss가 NaN으로 나오면서 학습이 터지는 현상이 있었습니다.
찾아보니 CNN+activation을 거치면 gradient가 급변하게 되는데 이때 loss 값이 크게 튀어서 나오는 현상이라고 합니다.
해결법은 모든 activation function 뒤에 batch normalization을 해주면 gradient 값이 안정화된다고 하네요.
knet+upernet 같은 경우에는 decoder 학습 과정에서 이 현상이 발생했고, kernel_update_head 부분을 수정해서 해결했습니다.
에폭 20이 넘어가면서 NaN이 발생했습니다.
optimizer_config의 타입으로 Fp16OptimizerHook설정을 했는데 float16 type으로 계산하기 때문에 속도는 빨라지는 대신
소실되는 값으로 인한 grad나 loss에서 NaN이 발생하는 경우가 많아지는 것 같습니다.
이를 방지하기 위한 장치로 loss_scale을 조절하여 방지할 수 있다고 했는데, 여러 값으로 실험했지만 계속 NaN이 떴습니다.
그래서 오래걸리지만 Fp16OptimizerHook을 쓰지 않고 학습 진행중입니다.
mosaic으로 offline augmentation한 데이터로 knet+upernet 학습시킬 때 loss가 NaN으로 나오면서 학습이 터지는 현상이 있었습니다.
찾아보니 CNN+activation을 거치면 gradient가 급변하게 되는데 이때 loss 값이 크게 튀어서 나오는 현상이라고 합니다.
해결법은 모든 activation function 뒤에 batch normalization을 해주면 gradient 값이 안정화된다고 하네요.
knet+upernet 같은 경우에는 decoder 학습 과정에서 이 현상이 발생했고, kernel_update_head 부분을 수정해서 해결했습니다.
The text was updated successfully, but these errors were encountered: