Altiora Petamus
stackGAN 본문
abstract
기존의 text-to-image 접근방식은 description의 의미를 대략적으로 반영을 했지만 세세한 정보는 포함하지 못한다.
따라서 이 논문에서는 text descriptions의 조건에 따라 256x256이미지를 생성하기 위해 Stacked Generative Adversarial Networks (StackGAN)을 제안한다.
1. GAN은 주어진 text description을 기반으로 기초적인 shape와 color를 스케치하여 저해상도 이미지를 생성한다.
2. 위 단계의 결과 및 text descriptions를 입력으로 사용하고 사진의 사실적 세부정보로 고해상도 이미지를 생성한다.
( 1단계의 결과의 결함을 수정하고 개선하여 세부사항을 추가할 수 있다. )
합성된 이미지의 다양성과 conditional-GAN의 훈련 안정화를 향상시키기 위해 novel Conditioning Augmentation technique 를 적용 (novel Conditioning Augmentation technique - 잠재적인 conditional manifold을 통해 학습에서의 매끄러움을 증가시키는 기술)
