📑Paper Review
[paper review] Denoising Diffusion Probabilistic Models
IntroductionBackgroundForward ProcessReverse ProcessDiffusion models and Denoising autoencodersObjective FunctionExperiments
Introduction
Background
tractability 하면서 flexibility한 방법론 구상
Forward Process
data에 noise를 추가하는 과정으로, markov chain을 통해 점진적으로 noise를 더함 (1000회)
매 step 마다 gaussian distribution에서 reparameterize를 통해 sampling하는 형태로 noise 추가, 로 스케일링 ( 발산 방지 )
variance를 unit하게 가둠으로써 forward-reverse 과정에서 variance가 일정수준으로 유지
Reverse Process
Forward Process의 매 과정에서 gaussian noise를 가정하여, 점진적으로 noise를 제거하는 과정
forward 과정과 다르게 조건부가 바뀐 reverse 과정은 inference 과정에서 직접적으로 계산하기 어렵기에 학습을 통한 추론으로 접근 → forward가 gaussian이면, reverse 도 gaussian이라는 점을 이용
p를 상정하여 q를 근사하도록 학습
Diffusion models and Denoising autoencoders
Objective Function
- 학습하지 않아도 fixed noise scheduling으로 isotropic gaussian을 획득 할 수 있기에, Diffusion model의 loss에서 regularization term을 제외
- 기존의 mean & variance function에서 variance function을 상수화하여 mean function으로 학습, mean function 또한 남은 하나의 대상인 noise를 예측하도록 재정의
- 결국 DDPM은 주어진 t 시점의 gaussian noise를 학습 → 각 시점의 다양한 scale의 gaussian noise를 예측하여 denoising에 활용하여 아래의 간단한 식으로 정의
Experiments
생성 모형 중 가장 높은 sample quality를 보임 계수 term을 제외하면, NLL이 미세하게 감소하지만, FID score가 많이 높아짐