소소하지만 소소하지 않은 개발 공부/밑바닥부터 시작하는 딥러닝

Chapter.7.1~7.2 합성곱 신경망(CNN), DL fram Scratch, python

still..epochs 2022. 11. 14. 16:52

* 본 포스팅의 내용은 모두 밑바닥부터 시작하는 딥러닝 을 참고하여 작성한 내용입니다.

 

이번 장의 주제는 합성곱 신경망(convolution neural network, CNN) 이다. CNN은 이미지 인식과 음성 인식 등 다양한 곳에서 샤용되는데, 특히 이미지 인식 분야에서 딥러닝을 활용한 기법은 거의 다 CNN을 기초로 한다. 이번 장에서는 CNN의 메커니즘을 자세히 설명하고 이를 파이썬으로 구현해본다.

 

 

7.1 전체 구조

CNN도 지금까지 본 신경망과 같이 레고 블록처럼 계층을 조합하여 만들 수 있다. 다만, 합성곱 계층(convolutional Layer)과 풀링 계층(pooling Layer) 이 새롭게 등장한다.

 

지금까지 본 신경망은 인접하는 계층의 모든 뉴런과 결합되어 있었다. 이를 완전연결(fully connected, 전결합) 이라고 하며, 완전히 연결된 계층을 Affine 계층이라는 이름으로 구현했다. 이 Affine 계층을 사용하면, 가령 층이 5개인 완전연결 신경망은 아래의 그림과 같이 구현할 수 있다.

완전연결 계층(Affine 계층)으로 이뤄진 네트워크의 예

위의 그림과 같이 완전연결 신경망은 Affine 계층 뒤에 활성화 함수를 갖는 ReLU 계층(혹은 sigmoid 계층)이 이어진다. 이 그림에서는 Affine-ReLU 조합이 4개가 쌓였고, 마지막 5번째 층은 Affine 계층에 이어 소프트맥스 계층에서 최종 결과(확률)을 출력한다. 

 

그렇다면 CNN의 구조는 어떻게 다를까 ?

CNN으로 이뤄진 네트워크의 예 : 합성곱 계층과 풀링 계층이 새로 추가(회색)

CNN에서는 새로운 '합성곱 계층;conv' 과 '풀링 계층;pooling'이 추가된다. CNN의 계층은 'Conv-ReLU-(Pooling)' 흐름으로 연결 된다. 지금까지의 'Affine-ReLU' 연결이 'Conv-ReLU-(Pooling)'으로 바뀌었다고 생각할 수 있다. 또 위의 그림에서 주목할 점은 출력에 가까운 층에서는 지금까지의 'Affine-ReLU' 구성을 사용할 수 있다는 것이다. 또 ,마지막 출력 계층에서는 'Affine-Softmax' 조합을 그대로 사용한다. 이상이 일반적인 CNN에서 흔히 볼 수 있는 구성이다. 

 

 

 

7.2 합성곱 계층

CNN에서는 패딩(padding), 스트라이드(stride) 등 CNN 고유의 용어가 등장한다. 또, 각 계층 사이에는 3차원 데이터같이 입체적인 데이터가 흐른다는 점에서 완전연결 신경망과 다르다.

 

7.2.1 완전연결 계층의 문제점

완전연결 계층의 문제점은 무엇일까? 바로 '데이터의 형상이 무시'된다는 사실이다.

입력 데이터가 이미지인 경우를 예로 들면, 이미지는 통상 세로 * 가로 * 채널(색상) 로 구성된 3차원 데이터이다. 그러나 완전연결 계층에 입력할 때는 3차원 데이터를 평평한 1차원 데이터로 평탄화해줘야한다.  사실 지금까지의 MNIST 데이터셋을 사용한 사례에서는 형상이 (1, 28, 28)인 이미지(1채널, 세로 28픽셀, 가로 28픽셀)를 1줄로 세운 784개의 데이터를 첫 Affine 계층에 입력했다.

 

이미지는 3차원 형상이며, 이 형상에는 소중한 공간적 정보가 담겨 있다. 예를 들어 공간적으로 가까운 픽셀은 값이 비슷하거나, RGB의 각 채널은 서로 밀접하게 관련되어 있거나, 거리가 먼 픽셀끼리는 별 연관이 없는 등, 3차원 속에서 의미를 갖는 본질적인 패턴이 숨어 있을 것이다. 그러나 완전연결 계층은 형상을 무시하고 모든 입력 데이터를 동등한 뉴런(같은 차원의 뉴런)으로 취급하여 형상에 담긴 정보를 살릴 수 없다.

 

한편, 합성곱 계층은 형상을 유지한다. 이미지도 3차원 데이터로 입력받고, 마찬가지로 다음 계층에도 3차원 데이터로 전달한다. 그래서 CNN에서는 이미지처럼 형상을 가진 데이터를 제대로 이해할 (가능성이 있는) 것이다.

 

CNN에서는 합성곱 계층의 입출력 데이터를 특징 맵(feature map)이라고 한다. 합성곱 계층의 입력 데이터를 입력 특징 맵(input feature map), 출력 특징 맵(output feature map) 이라고 하는 식이다.

 

7.2.2 합성곱 연산

 

합성곱 연산의 예

데이터와 필터의 형상을 ( 높이;height, 너비;width)로 표기하고, 이 예에서 입력은(4,4), 필터는(3,3), 출력은(2,2)가 된다. 문헌에 따라 필터를 커널이라 칭하기도 한다.

 

합성곱 연산은 필터의 윈도우(window)를 일정 간격으로 이동해가며 입력 데이터에 적용한다. ( 이 예제에서 윈도우는 회색 부분에 해당한다)

합성곱 연산의 계산 순서

이 그림에서 보듯 입력과 필터에서 대응하는 원소끼리 곱한 후 그 총합을 구한다. 이 과정을 모든 장소에서 수행하면 합성곱 연산의 출력이 완성된다.

 

완전연결 신경망에는 가중치 매개변수편향이 존재하는데, CNN에서는 필터의 매개변수가 그동안의 '가중치'에 해당한다. 그리고 CNN에서도 편향이 존재한다.

입력 데이터                              필터                                                             편향                   출력데이터

위의 그림과 같이 편향은 필터를 적용한 후의 데이터에 더한다. 그리고 편향은 항상 하나(1X1)만 존재한다. 그 하나의 값을 필터를 적용한 모든 원소에 더하는 것이다.

 

 

 

7.2.3 패딩

 

패딩이란 ?

합성곱 연산을 구행하기 전에 입력 데이터 주변을 특정 값(예컨테 0)으로 채우기도 한다. 이를 패딩(padding)이라 하며, 합성곱 연산에서 자주 이용하는 기법이다.

 

처음 크기가 (4,4)인 입력 데이터에 패딩이 추가되어 (6,6)이 된다. 

 

Note_ 패딩은 주로 출력 크기를 조정할 목적으로 사용한다. 예를 들어 (4,4) 입력 데이터에 (3,3) 필터를 적용하면 출력은 (2,2)가 되어, 입력보다 2만큼 줄어든다. 이는 합성곱 연산을 몇번이나 되풀이하는 심층 신경망에서는 문제가 될 수 있다. 합성곱 연산을 거칠 때마다 크기가 작아지면 어느 시점에서는 출력 크기가 1이 되어버릴 것이다. 더 이상은 합성곱 연산을 적용할 수 없다는 뜻이다. 이를 막기 위해  패딩을 사용한다.

 

 

7.2.4 스트라이드

필터를 적용하는 위치의 간격을 스트라이드(stride) 라고 한다.

지금까지 본 예는 모두 스트라이드가 1이었지만, 위의 그림에서는 스트라이드가 2로 한 것으로 필터를 적용하는 윈도우가 두 칸씩 이동한다. 

 

그런데 스트라이드를 2로 하니 출력은 (3, 3)이 된다. 이처럼 스트라이드를 키우면 출력 크기는 작아진다. 한편, 패딩을 크게 하면 출력 크기가 커졌다. 이러한 관계를 수식화하면 어떻게 될까? 

 

입력 크기를 (H, W), 필터 크기를(FH, FW), 출력 크기를(OH, OW), 패딩을 P, 스트라이드를 S라 하면, 출력 크기는 다음 식으로 계산한다.

주의할 점은 위의 식이 정수로 나눠떨어지는 값이어야 한다는 것이다. 출력 크기가 정수가 아니면 오류를 내는 등의 대응을 해줘야한다. 덧붙여서, 딥러닝 프레임워크 중에는 값이 딱 나눠떨어지지 않을 때는 가장 가까운 정수로 반올림하는 등, 특별히 에러를 내지 않고 진행하도록 구현하는 경우도 있다. (https://cs231n.github.io/convolutional-networks/ 중간쯤 가면 '움직이는 데모'를 확인할 수 있다)

 

7.2.5 3차원 데이터의 합성곱 연산

위의 그림은 3차원 데이터의 합성곱 연산이다. 그리고 아래의 그림은 계산 순서이다.

3차원의 합성곱 연산에서 주의할 점은 입력 데이터의 채널 수와 필터의 채널 수가 같아야 한다는 것이다.  이 예에서는 모두 3개로 일치한다.

 

 

7.2.6 블록으로 생각하기

3차원의 합성곱 연산은 데이터와 필터를 직육면체 블록이라고 생각하면 쉽다. 3차원 데이터를 다차원 배열로 나타낼 때는 (채널;channel, 높이;height, 너비;width) 순서로 쓴다.

이 예에서 출력 데이터는 한 장의 특징 맵이다. 한 장의 특징 맵을 다른 말로 하면 채널이 1개인 특징 맵이다. 그러면 합성곱 연산의 출력으로 다수의 채널을 보내려면 어떻게 해야 할까?

 

그 답은 필터(가중치)를 다수 사용하는 것이다.

 

- 이 그림과 같이 필터를 FN개 적용하면 출력 맵도 FN개가 생성된다. 그리고 그 FN개의 맵을 모으면 형상이 (FN, OH, OW)인 블록이 완성된다. 이 오나성된 블록을 다음 계층으로 넘기겠다는 것이 CNN의 처리 흐름이다.

 

합성곱 연산에서는 필터의 수도 고려해야 한다. 그런 이유로 필터의 가중치 데이터는 4차원 데이터이며 ( 출력 채널 수, 입력 채널 수, 높이, 너비) 순으로 쓴다.

자, 합성곱 연산에서도 편향이 쓰인다.

 

위의 그림에서 보듯 편향은 채널 하나에 값 하나씩으로 구성된다.

 

 

 

7.2.7 배치 처리

합성곱 연산도 마찬가지로 배치 처리를 지원한다. 그래서 각 계층을 흐르는 데이터의 차원을 하나 늘려 4차원 데이터로 저장한다( 데이터 수, 채널 수, 높이, 너비).

위의 그림을 보면 각 데이터의 선두에 배치용 차원을 추가했다. 이처럼 데이터는 4차원 형상을 가진 채 각 계층을 타고 흐른다. 여기에서 주의할 점으로는 신경망에 4차원 데이터가 하나 흐를 때마다 N개에 대한 합성곱 연산이 이뤄진다는 것이다. 즉 , N회 분의 처리를 한번에 수행하는 것이다.

 

이미지 참고 : https://compmath.korea.ac.kr/appmath2021/ConvolutionNN.html