딥러닝 (2) 썸네일형 리스트형 Linear Regression의 cost 최소화 알고리즘의 원리 Simplified hypothesis 기존 cost function에서 bias를 제거한 것. 수식으로 나타내면 아래와 같다. bias 없이 다음 traning data set에서 W를 구해보았다. x y 1 1 2 2 3 3 W = 1, cost(W) = 0 ( (1*1-1)^2 + (1*2-2)^2 + (1*3-3)^2 ) / 3 = 0+0+0 = 0 W = 0, cost(W) = 4.67 ( (0*1-1)^2 + (0*2-2)^2 + (0*3-3)^2) / 3 = 14 / 3 = 4.67 W = 2, cost(W) = 4.67 ( (2*1-1)^2 + (2*2-2)^2 + (2*3-3)^2) / 3 = 14 / 3 = 4.67 0에서 멀어질수록 cost function의 값이 더 커지는 것을 볼 .. Linear Regression의 Hypothesis와 cost x y 1 1 2 2 3 3 위의 traning data set은 아래의 그래프처럼 나타낼 수 있다. H(x) = Wx + b 라는 가설을 세울 때, 위의 그래프는 W = 1, b = 0이 가장 실제 데이터와 가깝다고 할 수 있다. Cost Function (Loss Function) : 가설과 실제 데이터가 얼마나 다른가? 그 차이를 계산하는 함수. (H(x) - y)^2 H(x) : 가설로 예측한 값 y : 실제의 값 H(x) - y : 값의 차이 위 값에 제곱을 하는 이유? : 차이를 양수로 표현해주고, 차이가 클 때 penalty를 많이 줄 수 있음. H(x) = Wx + b를 식에 대입하면 결국 W와 b를 이용하여 cost function의 값을 줄일 수 있다. 목표는 cost가 가장 작은 W,.. 이전 1 다음