https://arxiv.org/abs/1912.04958
Instance Normlization의 문제 - 채널들 사이의 통계량의 차이를 없애는 것이 기본이기 때문에 Generator가 채널들의 크기 정보를 활용하기 위해 채널 내에 아웃라이어(스파이크)를 생성한다는 것. Normalization은 생각보다 많은 효과를 갖고 있다.
Progressive growing의 제외 - progressive growing이 특유의 아티팩트를 생성하고 있었다. curriculum learning에 예상치 못한 결점이 있는 것은 아닐지?
#GAN #normalization