일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- BFS
- 백준
- Kaggle
- Widget
- Image Processing
- Dreamhack
- study book
- 영상처리
- fastapi를 사용한 파이썬 웹 개발
- Flutter
- PCA
- MATLAB
- bloc
- BAEKJOON
- Computer Architecture
- FastAPI
- 파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습
- BOF
- system hacking
- Algorithm
- pytorch
- Stream
- llm을 활용 단어장 앱 개발일지
- ARM
- C++
- ML
- Got
- MDP
- DART
- rao
- Today
- Total
Bull
[ML] 손실 함수 | study book 본문
손실 함수
단일 샘플의 실젯값과 예측값의 차이가 발생했을 때 오차가 얼마인지 계산하는 함수이다. 인공 신경망은 이 함수를 통해 계산된 오찻값을 최소화하여 정확도를 높이는 방법으로 학습이 진행된다. 손실함수, 목적함수, 비용함수 같은 단어이다. 자세히 비교하자면 손실함수 ⊂ 비용함수 ⊂ 목적 함수이다. 기본적인 개념으로 선형회귀의 $y$값과 $\hat{y}$ 을 생각하면 된다.
제곱 오차
$$ SE=(Y_i - \hat{Y_i})^2 $$
오차는 방향보다는 크기가 중요하기 때문에 양수로 만들어주기 위해서 제곱을 한다. 절대값도 있겠지만 제곱이 더 편하기 때문이다. 그리고 제곱을 통해서 더 두드러지게 확대시키기 때문에 오차의 간극을 빠르게 확인할 수 있다.
오차 제곱합
$$ SSE=\sum^n_{i=1}(Y_i - \hat{Y_i})^2 $$
오차를 모두 더함으로써 전체적으로 모델에 대한 오차를 평가할 수 있다.
평균 제곱 오차
$$ MSE=\frac{1}{n}\sum^n_{i=1}(Y_i - \hat{Y_i})^2 $$
가설의 품질을 체크할 수 있고 0에 가까워질수록 높은 품질이다. 회귀 분석에서 가장 많이 사용되는 손실함수이며 (최대 신호 : 잡음)으로 계산할 때도 사용한다.
평균 제곱근 오차
MSE에 제곱근을 하면 평균 제곱근 오차가 된다. 루트를 통해 제곱 오차에서 발생한 왜곡을 감소시키면 정밀도를 표현하기 적합한 형태가 된다.
교차 엔트로피
$$ CE(y,\hat{y})=-\sum_j y_j\ log\ \hat{y}_j $$
이산형 변수에서는 교차 엔트로피를 사용한다. 주로 분류 위주의 문제에 사용된다.
참고 자료
https://product.kyobobook.co.kr/detail/S000209621433
파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습 | 윤대희 - 교보문고
파이토치 트랜스포머를 활용한 자연어 처리와 컴퓨터비전 심층학습 | 트랜스포머는 딥러닝 분야에서 성능이 우수한 모델로 현대 인공지능 분야의 핵심 기술입니다. 트랜스포머와 비전 트랜스
product.kyobobook.co.kr
'Artificial Intelligence > Machine Learning' 카테고리의 다른 글
[ML] 데이터 세트와 데이터 분리 | study book (0) | 2024.08.18 |
---|---|
[ML] 최적화 (Optimization) | study book (0) | 2024.08.12 |
[ML] PCA (Principal Component Analysis) 원리 (0) | 2024.07.29 |
[ML] Support Vector Machine(SVM) (7) | 2024.07.22 |
[ML] Hyper Parameters (하이퍼 파라미터) (0) | 2024.03.14 |