본문 바로가기
Machine Learning

Linear Regression

by 앵남(Andy) 2019. 8. 2.

회귀분석은 D차원 벡터 독립변수 x와 이에 대응하는 종속변수y간의 관계를 찾아내는 작업이다

 

선형 회귀 분석을 하기위해서는 선형 회귀 모델을 만들어야 한다. 영향을 주는 변수는 독립 변수(x)

또는 설명 변수 라고 불린다 그리고 설명변수 로인해 영향을 받는 변수는 종속변수라고 불린다.

 

선형 회귀 모델에는 단일 선형 회귀모델과 다변량 선형회귀 모델이 있다

 

오늘은 단일 선형 회귀 모델을 만들어 볼것이다

다음과 같은 선형 함수를  h(x) = ax + b  라고 한다  이때의 x는 실수값을 취하는 1차원 랜덤변수이다

이와 같이 한가지 x를 이용한것을 단일 선형회귀 라고한다.

Linear Regression의 목적은 실제 데이터를 가장 잘 대변하는 직선을 찾는게 우리의 목표이다.

여기서의 직선이란 h(x) = ax+b 이다.

 

이 방정식이 직선이 라는걸 기억하자. 

이제부터 h(x) 에 a 와 b 값을 지정하여 output y^ 값을 구해보려고 한다.
즉,  주어진 input data(x)를 output data (y)에 대응시키는 함수 h 를 만들어 보도록 한다.

 

예를들어 이런 데이터 셋이 있다고 가정하자!

input(x) output(y)
0 4
1 7
2 7
3 8
4 6
   

h(X) = ax + b 일단  a 와 b에 다가 아무숫자나 넣어보자 a = 2, b= 2 이때의 H(x)는 2x+2 가된다.

여기에다가 input(x)값 1 을넣어보자. H(X) = 2*1+2 = 4 가 결과값이 나온다. 

여기서 주목해야한다. 실제 output값은 7이 나왔는데 h(x)값은 4가 나왔다. 정답인 7에서 3만큼 차이가 발생했다.

 

위에서 말한것처럼 우리의 목적은 실제 데이터와 가장 잘 대변하는 직선을 찾는게 목표이다.

즉, 실제 정답(y)와 h(x)값의 차이 가 적게 나오도록 하는  a와 b를 찾는것이다. 그래서 cost function 과 gradient Desent라는 방법을 통해 a와 b가 최소가 되는 직선을 찾아야한다.

최소가되는 a와 b를찾자!

 

 다음에는 (cost function비용함수)와 경사하강법(gradientDesent)라는 방법을  이용해 실제 데이터를 가장 잘 대변하는 직선 찾아보겠다.

 

공부했던걸 복습하려고 올리는 블로그입니다 틀린점이있으면 말해주시면 감사하겠습니다!!

# 머신러닝 # 선형회귀

'Machine Learning' 카테고리의 다른 글

지도학습(Supervised Learning)  (0) 2019.08.01

댓글