이것저것 코딩하는 블로그

[Computer Vision] EDSR review 본문

Computer Vision

[Computer Vision] EDSR review

2020. 12. 9. 13:39

본 포스팅은 Lim, B., Son, S., Kim, H., Nah, S., & Mu Lee, K. 의 Enhanced deep residual networks for single image super-resolution 을 리뷰한 논문이다. 모든 그림과 설명은 논문을 참고했다.

 

원문 링크: openaccess.thecvf.com/content_cvpr_2017_workshops/w12/html/Lim_Enhanced_Deep_Residual_CVPR_2017_paper.html

 

CVPR 2017 Open Access Repository

Bee Lim, Sanghyun Son, Heewon Kim, Seungjun Nah, Kyoung Mu Lee; Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, 2017, pp. 136-144 Recent research on super-resolution has progressed with the development of dee

openaccess.thecvf.com

0.     What problem?

 

1)     SR 성능을 평가하는 척도인 PSNR (Peak Signal-to Noise Ratio) model 작은 변화에 예민하게 변한다. 따라서 정교한 모델 구조와 최적화가 요구된다.

2)     대부분의 SR model 다른 scale upsampling 하는 것을 독립적으로 취급하기 때문에, 다른 scale HR간의 관계를 이용할 없다.

3)     위의 문제를 해결한 모델이 존재하나, 이는 bicubic interpolated image 사용하기 때문에 많은 연산량을 요구한다.

4)     SRResNet residual learning 통해 3) 문제를 해결한 모델이나, ResNet high-level image problem 해결하기 위해 고안된 모델이다 (image classification ). Low-level image problem SR 이를 단순히 적용시키는 것은 최적의 해답은 아니다.

 

EDSR (enhanced deep super-resolution network) 위의 가지 문제를 해결하기 위해 고안된 simplified multi-scale model이며, SRResNet 구조를 차용하되 단순화했다

 

1.     Modified residual block

 

EDSR 기존의 SRResNet block structure에서 batch normalization 제거한 block structure 제안하였다.

 

 

[ 그림 1. Original ResNet, SRResNet, EDSR 의   block structure]

 

xi i번째 feature map, xi+1 i+1번째 feature map, Conv convolution, BN batch normalization 의미한다. [그림 1] 같이, 기존의 SRResNet convolution, activation, convolution 과정을 거치고 각각의 과정 사이에 batch normalization 포함한다. EDSR에서는 batch normalization 제거하였다. Batch normalization feature map 정규화하므로 feature flexibility 저하시킨다. 따라서 이를 제거하여 feature map 값이 최대한 보존되도록 하였다.

 

2.     EDSR

 

EDSR 위와 같은 block 32, feature channel 개수는 256으로 하여 이어 붙였다. 그리고 마지막 pixel shuffle 통해 upsampling 진행했다. Pixel shuffle이란, LR feature map들의 pixel들을 이용하여 HR pixel construct 하는 기법이다. 그림을 보면 다음과 같다.

 

[그림 2. pixel shuffle] 출처: https://paperswithcode.com/method/pixelshuffle#

EDSR 전체적인 구조를 그림으로 살펴보면 다음과 같다.

 

[그림 3. EDSR model structure]  

 

여기서 1-2) 해결한 EDSR 특징이 나타나는데, 3배와 4배로 upscale 2배로 upscale시킬 사용한 pre-trained model parameter model parameter 초기화한다.

 

3.     MDSR

[그림 4. MDSR model structure]  

 

MDSR multi-scaled EDSR으로, 하나의 LR 여러 가지 scale HR 얻을 있다. EDSR 같은 32개의 블록을 거치기 전에, 개의 residual block 두어 scale 차이에서 오는 variance 줄일 있도록 했다. 32개의 residual block 거치고, scale specific pixel shuffle layer 두어 scale마다 다르게 upsample 있도록 했다. 중간 residual block parameter 공유하므로 적은 parameter 사용하며, scale 다른 upscaling dependent하므로 다른 scale HR 간의 관계를 이용한 가중치 조정이 이루어질 있다.

 

4.     Self-ensemble method

  [표 1. EDSR과 MDSR의 실험 결과]

Model 통해 얻어진 HR 회전과 반전을 하면 8개의 다른 이미지를 얻을 있다. 최종 HR 값을 8개의 평균으로 하는 것이 self-ensemble method이다. 이를 통해 성능 향상을 얻었음을 [ 1]에서 있다. 또한 다른 모델 구조에 비해 뛰어난 PSNR SSIM (Structure similarity, 구조적 유사도) 보임을 있다.

 

Comments