MSE

ML | DL

[ML/DL] 경사 하강법 SGD 실습(with.python)

딥러닝 학습 초기 a지점에서의 x값을 W0라고 하자. 해당 지점에서의 y값은 L이다. 이 때, a의 접선 즉 a의 순간 기울기(dL/dW0)는 음수가 나타나고 a'에서의 기울기는 양수가 나타난다. 기울기가 가장 작은값, 즉 기울기가 0에 수렴하도록 W의 값을 조절해야 가장 최적의 추세선을 그릴 수 있게 된다. 이를 수식으로 나타내면 다음과 같으며 이런 작업을 '경사하강법' 이라고 한다. 딥러닝관점에서 볼때 W를 가중치라고 부르며 가중치의 비중에 따라 신경망이 어떤 데이터에 더 중요도를 줄것인지 조절한다. 위와같은 알고리즘을 통해서 에러를 최소한으로 수렴하도록 최적의 기울기를 찾아내는것이 딥러닝의 목적이다. SGD(Stochastic Gradient Descent) 확률적 경사 하강법 - 오차가 더 이상 ..

ML | DL

[ML/DL] 딥러닝 기본 개념

딥러닝을 배울때 기본적으로 알고있어야 하는 지식이 상당히 많다. 2학년을 마치고 딥러닝을 배우고 나서야 대학에서 배운 수학이 인공지능에서 어떻게 쓰이는지 알게 되었다. AI를 배우기 위해 선형대수(행렬), 확률과통계, 미적분은 필수로 알고있어야 한다. error == loss == 오차 == 손실 != 오류 딥러닝에서 사용하는 error라는 용어는 우리가 일반적으로 아는 오류 라는 의미가 아닌 오차라는 뜻을 갖는다. 오차는 다른말로 error, loss, 손실이라고도 부른다. 가중치 숫자를 인식하는 신경망을 예로 들어보자. 8이라는 숫자 이미지는 28x28=784개의 픽셀로 구성되어 있다고 가정하자. 그러면 input으로 784개의 데이터를 입력해 주어야 한다. input layer에 784개의 뉴런이 ..

시그널보내
'MSE' 태그의 글 목록