티스토리 뷰




이런 x값, y값이 있다고 하면 regression 모델이 위에 나오는 training data들을 가지고 training을 하면 내부적으로 어떠한 모델을 만들어 낸다.


그러면 x를 넘겨주면 y를 리턴해 주는 형식으로 만들어진다.





위의 값들이 학습을 할 데이터이다.





Linear Hypothesis란 선으로 하는 가설인데, 위의 데이터가 x,y축 위에 있다고 하면 이런 그림으로 그려진다.




그러면 여기에 선을 그리는 것이 가설을 세우는 것이다.


그리고 이중 가장 데이터에 가까운 선을 찾는 과정이 학습하는 과정이라고 할 수 있다.




Linear Hypothesis의 과정을 살펴보자.



1. 가설을 세운다. H(x) = Wx + b 라는 1차함수의 그래프로 나타나게 되는데, 

이때 W,b 값에 따라서 그래프의 개형이 다르게 나타나게 된다.



이렇게 나타나게 될 것이다.



2. 이러한 선들이 데이터와 얼마나 일치하는지 비교를 한다.


그러려면 선들의 y값과 실제 데이터의 y값을 비교하여야 하는데,



선의 y값에서 실제 데이터의 y값을 뺀 값을 제곱한 수가 작으면 작을수록 실제 데이터에 근접한다는 것



(H(x) - y)^2 의 크기를 비교한다.



이 데이터들의 평균 값을 구하려면 


이러한 cost함수를 이용하면 된다.


cost함수를 쓰는 목적은 가장 작은 차이, 즉 가장 작은 cost(W,b)를 구하기 위함이다.

'Programming > Deep Learning' 카테고리의 다른 글

퍼셉트론 AND , OR , NAND게이트  (0) 2018.03.20
퍼셉트론  (0) 2018.03.20
Linear Regression 구현 (using placeholder)  (0) 2018.03.19
Linear Regression 구현  (0) 2018.03.19
기본적인 Tenworflow  (0) 2018.03.18
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
TAG
more
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함