본문 바로가기

머신러닝, 딥러닝34

[ML] 교차 검증 (CV, Cross Validation) -목차- 1. 교차 검증이란? 2. 교차 검증의 장점과 단점 3. 교차 검증 기법 종류 3.1 K-Fold Cross Validation ( k-겹 교차 검증) 3.2 Stratified K-Fold Cross Validation ( 계층적 k-겹 교차 검증 ) 4. GridSearchCV 구현 코드 : Cross_Validation 1. 교차 검증이란? 보통은 train set 으로 모델을 훈련, test set으로 모델을 검증한다. 여기에는 한 가지 약점이 존재한다. 고정된 test set을 통해 모델의 성능을 검증하고 수정하는 과정을 반복하면, 결국 내가 만든 모델은 test set 에만 잘 동작하는 모델이 된다. 즉, test set에 과적합(overfitting)하게 되므로, 다른 실제 데이터를.. 2022. 2. 21.
Matrix Factorization(MF)기반 추천 이전 업로드한 메모리 기반 협업 필터링인 사용자 기반 협업 필터링(UBCF)에 이어서 모델 기반 협업 필터링인 MF기반의 협업 필터링의 기본 개념에 대해서 정리해보려고 한다. 구현 코드 : SGD를 사용한 MF 알고리즘 -목차- 1. Matrix Factorization(MF) 의 원리 2. SGD(Stochastic Gradient Descent)를 사용한 MF 알고리즘 3. 모델 기반 추천 시스템의 장단점 4. SGD(Stochastic Gradient Descent)를 사용한 MF 구현 1. Matrix Factorization(MF) 의 원리 우선 MF 모델은 user-item 의 matrix에서 이미 rating이 부여되어 있는 상황을 가정한다. (당연히 sparse한 m.. 2022. 2. 21.
[DL] Cost Function -목차- 1. Cost Function 1.1 오차 최소화 관점 1.2 최대우도추정 관점 2. Cost Function의 종류 2.1 MSE(Mean Squared Error) 2.2 RMSE(Mean Squared Error) 2.3 Binary Crossentropy Loss 2.3.1 정보량(Information) 2.3.2 엔트로피(Entropy) 2.3.3 크로스 엔트로피(Cross Entropy) 2.3.4 손실 함수로서 이진 크로스 엔트로피의 동작 2.4 Categorical Crossentropy Loss 1. Cost Function Cost Function이란 데이터 셋과 어떤 가설 함수와의 오차를 계산하는 함수이다. Cost Function의 결과가 작을수록 데이터셋에 더 적합한 Hy.. 2022. 2. 15.
[DL] 경사 하강법(Gradient Descent) -목차- 1. 경사 하강법(Gradient Descent) 이란? 2. 미분 값(Derivative Term) 3. 학습률(Learning Rate) 4. local minima 문제 1. 경사 하강법(Gradient Descent) 이란? 경사 하강법은 함수 값이 낮아지는 방향으로 독립 변수 값을 변형시켜가면서 최종적으로는 최소 함수 값을 갖도록 하는 독립 변수 값을 찾는 방법이다. 경사 하강법은 머신러닝에서 비용함수(Cost function)를 최소화하는 파라미터 \(\theta \)를 구하는 알고리즘으로 폭넓게 쓰이고 있다. 참고 : 비용 함수(Cost function) 위 그림은 독립변수 \(\theta_{0}\), \(\theta_{1}\)을 가지는 임의의 함수 \(J\)가 있을 때, \(J\).. 2022. 2. 4.