[Tensorflow] 4. Multi-variable Linear Regression

Multi-variable Linear Regression : 다중 선형회귀

용어는 어려워보이지만 앞서 공부했던 Simple Linear Regression과 크게 달라진 것이 없다.
앞에서 공부했던 예제들은 변수가 1개로
위와 같은 식을 사용할 수 있었다.
하지만 변수가 여러개가 될 경우에도 gradient descent를 사용할 수 있다고 했다. multi-variable 이 바로 여러개의 변수를 사용할 경우를 의미한다.
이해하기 쉽도록 간단한 상황을 예를 들어, 학생들의 final score를 예측하기 위한 모델을 만들기 위한 data가 quiz1, quiz2, midterm 이 있다고 가정하자
변수는 3개로 각 변수마다 다른 가중치 w가 주어져야한다. 이를 위해 Hypothesis를 계산해보면


 변수가 늘어날때마다 식이 계속 길어지게 된다. 이것을 편리하게 쓰기위해 Matrix와 dot product 연산이 도입된다.

점곱을 하게 되면 매우 간단하게 식이 표현되는 것을 알 수 있다. 또한 변수가 아무리 늘어나더라도 Matrix에 데이터를 입력하기만 하면 Hypothesis값을 동일한 표현방법으로 나타낼 수 있다.
입력으로 여러개의 변수를 받을 수 있듯 출력도 변수 하나가 아닌 여러개를 하도록 할 수 있다. 그렇기 때문에 weight matrix의 크기는 입력 matrix row 수 & 출력 matrix column수 에 의해 정해지는 것이다.
예를 들어 , [ n,3 ] [?, ?] = [n,2] 라면 w matrix는 [3,2]가 되어야 한다.
H(x1,x2,x3)=w1x1+w2x2+w3x3+b

No comments:

Powered by Blogger.