일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 사이드채널
- down sampling
- 캐시사이드채널
- dilated convolution
- 프라임 프로브
- prime abort
- transient execution attack
- cache side channel
- 부채널 공격
- out-of-order
- depthwise convolution
- PRMIE ABORT
- min pooling
- side-channel
- depth-wise separable convolution
- 로스함수
- clflush
- PRIME+PROBE
- 프라임프로브
- 캐시 사이드채널
- depthwise separable convolution
- mean pooling
- cpu
- 캐시 사이드 채널
- depth-wise convolution
- cache side-channel
- down-sampling
- PRIME+ABORT
- 의존성
- Logical address
- Today
- Total
목록Deep Learning/CNN (5)
컴공과블로그

Down-sampling은 sample의 갯수를 줄이는 것이라 할 수 있다. Deep Learning에서는 '인코딩 할 때 data의 갯수를 줄이는 것이다!' 라고 이해하면 좋을 것 같다. Pooling 앞서 설명한 내용이지만, 간단하게 Pooling에 대해서 정리해보자. 위 그림과 같이 해당 영역(kernel이라고도 하며 filter라고도 한다)에서 평균 혹은 최대값을 계산하여 요약된 데이터를 만들어낸다. 이처럼 Pooling의 방법으로 Downsampling을 하는 방법이 일반적이다. Dilated (Atrous : 구멍이 있는) convolution Convolution도 Down Sampling의 한 방법으로 사용할 수 있다. 그리고 앞서 설명드린 Pooling 계열과는 다르게 학습과정을 거치므로..

요점만 알고자 하는 사람들을 위해서 해당 게시물을 남깁니다. 각 필터들로 만든 결과값은 하나의 뉴런입니다. 그리고 하나의 뉴런이 원본 이미지에서 담당하는 범위를 Receptive Field라고 합니다. 위 사진은 초록색 뉴런의 Receptive Field는 원본 이미지의 3x3 부분이고 노란색 뉴런의 Receptive Field는 원본이미지의 5x5 부분입니다. 즉, 층이 깊어질 수록 더 넓은 Receptive Field를 가지게 됩니다.

'Convolution 연산을 거쳐서 나온 activation map이 있을 때, 이를 이루는 convolution layer를 resizing 하여 새로운 layer를 얻는 것' 으로 pooling이 convolution의 후속과정처럼 정의하는 분이 있는가 하면, (김성훈 교수) 'Convolution이 matrix 연산에 의해 얻는 것이라면 Pooling은 matrix 연산을 사용하지 않고 각 pixel에서 하나의 값을 뽑아내는 과정' 으로 pooling이 convolution의 후속과정이 아닌 별도의 개념으로 정의하는 분도 있다. 우리는 여기서 다음의 그림을 통해 더 쉽게 이해해보도록 하자. pooling 에는 최대값을 뽑아내는 max pooling, 평균값을 뽑아내는 mean pooling등 다양..

CNN(Convolution Neural Network)에는 다양한 용어들이 등장하는데 그 중에서 Stride와 Filter가 무엇인지 알고 가보도록 하자. Filter(필터) 필터는 이미지의 특징을 찾아내기 위해 사용되는 공용 파라미터이다. Filter를 Kernel이라고도 한다! CNN에서 필터는 일반적으로 정사각 행렬 (ex. 4x4, 3x3)로 정의된다. 아래 그림과 함께 이해하면 훨씬 도움이 될 것이다. 위 그림은 채널이 1개인 입력 데이터를 (3, 3) 크기의 필터로 합성곱하는 과정을 그림으로 나타낸 것이다. 입력 데이터를 지정된 간격으로 순회하며 채널 별로 Convolution(합성곱) 연산을 하고 모든 채널의 합성곱의 합을 Feature Map으로 만든다. 다시 한번 말하지만 input m..
데이터 전처리(data preprocessing )가 필요한 이유는 무엇일까. 우수한 예측 분석 결과는 잘 정돈된 데이터에서 출발한다. 즉, 정교한 예측 분석 모델을 얻기 위해서는 수집된 데이터에 누락된 부분이나, 오차, 또는 데이터 처리에 있어서 가공할 부분은 없는지를 살펴보아야 한다. 데이터 전처리 종류? 데이터 전처리의 종류에는 데이터 클리닝(cleaning), 데이터 통합(integration) , 데이터 변환(transformation), 데이터 축소(reduction), 데이터 이산화(discretization) 등이 존재한다. 데이터의 결측치 및 이상치를 확인하거나 제거하고 불일치되는 부분을 일관성 있는 데이터의 형태로 전환 하기도 하는 이 전 과정을 데이터의 전처리라고 일컫는다. 데이터 전..