교사 방식 : 정확(모호한 게 아닌)한 답을 준다. 대부분 분류 문제로.
데이터셋을 가지고 어떻게 학습시킬지 결정 이를 학습셋이라 함.
m = 학점 예제의 수
x = "입력"변수 / 특징(피쳐)
y = "출력"변수 / 예측하려는 목표변수를 특징할 때 사용
(x, y) = 하나의 학습 예제를 표시
(x(i),y(y)) = i번째 학습예제
h(hypothesis) : 가설. x에 값으로 받고 결과값 y를 도출하는 과정. 학습지도.
training set
|
learning algorithm
|
size of house -> h -> estimated price
가설 h는 h(x) = θ0 + θ1x로 표현할 수 있다.
x의 선형함수인 y를 예측하는 것
선형함수를 이용하는 이유? 간단하기 때문에. 복잡한 모형들을 복잡한 학습
알고리즘으로 보냄. 선형회귀
비용함수 : 주어진 데이터에 가장 가까운 일차함수 그래프를 찾아낼 수 있다.
h(x)에서 θ0과 θ1x는 함수의 파라미터를 나타낸다.
그렇담 여기서 θ0과 θ1를 어떻게 고를 것인가?
J(θ0, θ1) = 1/2m * Σ(i=1, m)(h(x(i)) - y(i))^2.
θ0, θ1를 최소화하는 것에 따라 답이 달라짐.
J(θ0,θ1) : 오차요인의 제곱함수.
1/2m 평균내기 위해 일반적으로 오차함수의 제곱이 통상적으로 회귀문제에서 사용된다.
가설 값인 h(x)가 훈련예제(x, y)에서 y와 근접하도록, θ0과 θ1을 선택하라.
# : 훈련 예시들의 수의 약어
1/2m하는 건, 값을 더 잘 보여주려고
θ0, θ1를 최소화 하는건, θ0, θ1를 찾는 것.
목적함수
-> 평균값인 1/2m값에 훈련집합에 대한 내 예측과, 최소화된 훈련집합에서 실제 집들의 값의 차의
합계의 제곱을 곱한 값으로 접근.
비용함수가 하는 일
if)θ1 = 1, θ0 = 0
h(x) = x(i) = y(i) = (0^2 + 0^2 + 0^2)
j(1) = 0
가설함수 : h(x) : θ1는 고정. x에 대한 함수.
비용함수 : J(θ1) : θ1에 대한 함수.
θ0 = 0으로 두고 하는 경우가 많다. 알고리즘의 최선의 θ1를 찾는 것이 목표.
j(θ1)을 최소화 하도록!