거의 알고리즘 일기장

선형회귀분석 본문

딥러닝

선형회귀분석

건우권 2020. 10. 2. 16:51

주어진 데이터를 잘 설명하는 직선 하나를 찾는 일!

y = w * x + b 에서 들어오는 x, y 데이터에 잘 맞는 w, b의 값을 찾는것

 


이를 위해서는 두가지를 먼저 알고 가야한다.

손실함수, 경사하강법

 

손실함수 : 모델의 예측값과 실제 값과의 오차, 주로 MSE(평균 제곱오차 사용)

경사하강법 (gradient decent) : 수식을 보면 알기 쉬운데 주어진 w에서 기울기를 구하고 그 기울기에 대해서 w를 조금씩 업데이트하면서 손실함수의 극솟값을 구하는 방식이다.

(수식 : W(t+1) = W(t) - gradient(기울기) X learning rate(학습률))

(왜 w로 미분해서 그 값이 0이 되는 지점을 찾지 않고 경사하강법을 이용하냐면 데이터가 많아지면 많아질수록 연산량이 매우매우 늘어나서 그렇다고한다.)

 

 모델의 예측값과 실제값과의 오차를 구하고, 그 오차를 w, b값을 조절하면서 줄여나간다고 생각하면 된다.

경사하강법 참고 그림

www.youtube.com/watch?v=IHZwWFHWa-w&t=17s

 

위의 링크를 참고하면 더 확실히 알수 있을 것이다.


밑의 예제를 참고하면 이해가 쉬울것 같으니 참고하길 바란다.

예제) y  = 2 * x + 3을 타겟으로 y =w * x + b를 학습하는 예제

github.com/Kwonkunkun/DeepLearning/blob/main/%EC%84%A0%ED%98%95%ED%9A%8C%EA%B7%80%EC%98%88%EC%A0%9C.ipynb

 

Kwonkunkun/DeepLearning

딥러닝 연습. Contribute to Kwonkunkun/DeepLearning development by creating an account on GitHub.

github.com


개인공부용으로 적어놓은거라 중간중간 빠져있는게 있을수있습니다. 나중에 추가하겠습니다.

반응형

'딥러닝' 카테고리의 다른 글

CNN (합성곱 신경망)  (0) 2020.10.03
ANN (인공신경망)  (0) 2020.10.02
CT사진에서 폐사진만 가져오기!!  (0) 2020.09.29
Comments