Notice
Recent Posts
Recent Comments
Link
거의 알고리즘 일기장
선형회귀분석 본문
주어진 데이터를 잘 설명하는 직선 하나를 찾는 일!
y = w * x + b 에서 들어오는 x, y 데이터에 잘 맞는 w, b의 값을 찾는것
이를 위해서는 두가지를 먼저 알고 가야한다.
손실함수, 경사하강법
손실함수 : 모델의 예측값과 실제 값과의 오차, 주로 MSE(평균 제곱오차 사용)
경사하강법 (gradient decent) : 수식을 보면 알기 쉬운데 주어진 w에서 기울기를 구하고 그 기울기에 대해서 w를 조금씩 업데이트하면서 손실함수의 극솟값을 구하는 방식이다.
(수식 : W(t+1) = W(t) - gradient(기울기) X learning rate(학습률))
(왜 w로 미분해서 그 값이 0이 되는 지점을 찾지 않고 경사하강법을 이용하냐면 데이터가 많아지면 많아질수록 연산량이 매우매우 늘어나서 그렇다고한다.)
모델의 예측값과 실제값과의 오차를 구하고, 그 오차를 w, b값을 조절하면서 줄여나간다고 생각하면 된다.
www.youtube.com/watch?v=IHZwWFHWa-w&t=17s
위의 링크를 참고하면 더 확실히 알수 있을 것이다.
밑의 예제를 참고하면 이해가 쉬울것 같으니 참고하길 바란다.
예제) y = 2 * x + 3을 타겟으로 y =w * x + b를 학습하는 예제
개인공부용으로 적어놓은거라 중간중간 빠져있는게 있을수있습니다. 나중에 추가하겠습니다.
반응형
'딥러닝' 카테고리의 다른 글
CNN (합성곱 신경망) (0) | 2020.10.03 |
---|---|
ANN (인공신경망) (0) | 2020.10.02 |
CT사진에서 폐사진만 가져오기!! (0) | 2020.09.29 |
Comments