Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- cache side-channel
- mean pooling
- out-of-order
- PRMIE ABORT
- depthwise separable convolution
- 부채널 공격
- down sampling
- side-channel
- 프라임 프로브
- 사이드채널
- dilated convolution
- 캐시 사이드 채널
- 캐시 사이드채널
- 캐시사이드채널
- cache side channel
- clflush
- cpu
- depth-wise separable convolution
- depth-wise convolution
- down-sampling
- transient execution attack
- PRIME+PROBE
- PRIME+ABORT
- 프라임프로브
- 로스함수
- Logical address
- depthwise convolution
- prime abort
- 의존성
- min pooling
Archives
- Today
- Total
목록로스함수 (1)
컴공과블로그

손실 함수는 비용함수(Cost Function)이라고도 불린다. 손실 함수는 '인공지능' 과목에 포함되는 Machine Learning 최적화의 기본 원리이며 기초적인 개념이다. 위의 그림은 일반적인 통계학적 모델의 형태로 Input이 들어오면 모델을 통해 Output이 산출되는 방식이다. 예측 값은 실제 값과 얼마나 유사한지 판단하는 기준이 필요한데 그게 Loss Function(손실 함수)이다. 예측 값과 실제 값의 차이를 Loss라고 하며, 이 Loss를 줄이는 방향으로 학습이 진행된다. 예를 들어보면 파란색 점이 가지고 있는 데이터라고 가정해보자. 데이터가 이렇게 분포되어있을 때, 파란색 점 전체를 잘 대변하는 직선은 어떤 것인가? 파란색 점 전체를 잘 대변하는 직선의 모습은 위의 그림에서 빨간 ..
Machine Learning/Basic
2023. 12. 27. 16:53