경사 하강법1 [DL] 경사 하강법(Gradient Descent) -목차- 1. 경사 하강법(Gradient Descent) 이란? 2. 미분 값(Derivative Term) 3. 학습률(Learning Rate) 4. local minima 문제 1. 경사 하강법(Gradient Descent) 이란? 경사 하강법은 함수 값이 낮아지는 방향으로 독립 변수 값을 변형시켜가면서 최종적으로는 최소 함수 값을 갖도록 하는 독립 변수 값을 찾는 방법이다. 경사 하강법은 머신러닝에서 비용함수(Cost function)를 최소화하는 파라미터 \(\theta \)를 구하는 알고리즘으로 폭넓게 쓰이고 있다. 참고 : 비용 함수(Cost function) 위 그림은 독립변수 \(\theta_{0}\), \(\theta_{1}\)을 가지는 임의의 함수 \(J\)가 있을 때, \(J\).. 2022. 2. 4. 이전 1 다음