본문 바로가기
Deep Learning lecture

ML lec 04 - multi-variable linear regression (*new)

by xangmin 2020. 4. 27.
반응형

Recap

· Hypothesis

 -Wb를 학습하게 된다.

· Cost function

 -실제값과 예측값 사이의 차이를 제곱하여 합을 한 것이다.

· Gradient Descent Algorithm

 

Predicting exam score : regression using three inputs(x)

x (hours) y (score)
10 90
9 80
3 2
2 60
11 40

 

Predicting exam score : regression using three inputs(x1, x2, x3)

x1(quiz 1) x2(quiz 2) x3(midterm 1) Y (final)
73 80 75 152
93 88 93 185
89 91 90 180
96 98 100 196
73 96 70 142

 

Hypothesis

H(x) = Wx + b

H(x1, x2, x3) = w1x1 + w2x2 + w3x3 + b

 

 

Cost function

 

Multi-variable

 

Matrix

인수가 많아질 수록 불편함이 생긴다.

w1x1 + w2x2 + .... wnxn 

 

Matrix mulitplication

 

Hypothesis using matrix

w1x1 + w2x2 + .... wnxn 

 

x1 x2 3 y
73 80 75 152
93 88 93 185
89 91 90 180
96 98 100 196
73 96 70 142

H(x1, x2, x3) = w1x1 + w2x2 + w3x3 + b

각 행을 instance라고 부른다. (73, 80, 75, 152) 

 

 w는 변함없이 instance 수만 증가하는 것을 다음과 같이 표현할 수 있다.

즉, instance가 많을 때 각각의 instance를 계산할 필요없이 전체를 긴 matrix에 넣고 w를 곱하면 원하는 값이 나온다.

 (5, 3) x (3, 1) = (5, 1) 행렬의 곱과 같은 형태로 결과가 나온다.

 

 

반응형

댓글