새소식

인기 검색어

TL

20/07/26 TL

  • -

 

 

 

 

 

 

교사 방식 : 정확(모호한 게 아닌)한 답을 준다. 대부분 분류 문제로.
데이터셋을 가지고 어떻게 학습시킬지 결정 이를 학습셋이라 함.

m = 학점 예제의 수
x = "입력"변수 / 특징(피쳐)
y = "출력"변수 / 예측하려는 목표변수를 특징할 때 사용
(x, y) = 하나의 학습 예제를 표시
(x(i),y(y)) = i번째 학습예제 

h(hypothesis) : 가설. x에 값으로 받고 결과값 y를 도출하는 과정. 학습지도.

                 training set
                       |
            learning algorithm
                       |
size of house -> h -> estimated price

가설 h는 h(x) = θ0 + θ1x로 표현할 수 있다.
x의 선형함수인 y를 예측하는 것
선형함수를 이용하는 이유?  간단하기 때문에. 복잡한 모형들을 복잡한 학습
알고리즘으로 보냄. 선형회귀

비용함수 : 주어진 데이터에 가장 가까운 일차함수 그래프를 찾아낼 수 있다.
h(x)에서 θ0과 θ1x는 함수의 파라미터를 나타낸다.
그렇담 여기서 θ0과 θ1를 어떻게 고를 것인가?
J(θ0, θ1) = 1/2m * Σ(i=1, m)(h(x(i)) - y(i))^2.
θ0, θ1를 최소화하는 것에 따라 답이 달라짐.
J(θ0,θ1) : 오차요인의 제곱함수.
1/2m 평균내기 위해 일반적으로 오차함수의 제곱이 통상적으로 회귀문제에서 사용된다.

가설 값인 h(x)가 훈련예제(x, y)에서 y와 근접하도록, θ0과 θ1을 선택하라.
# : 훈련 예시들의 수의 약어

1/2m하는 건, 값을 더 잘 보여주려고
θ0, θ1를 최소화 하는건, θ0, θ1를 찾는 것.
목적함수
-> 평균값인 1/2m값에 훈련집합에 대한 내 예측과, 최소화된 훈련집합에서 실제 집들의 값의 차의
합계의 제곱을 곱한 값으로 접근.

비용함수가 하는 일
if)θ1 = 1, θ0 = 0
h(x) = x(i) = y(i) = (0^2 + 0^2 + 0^2)
j(1) = 0

가설함수 : h(x) : θ1는 고정. x에 대한 함수.
비용함수 : J(θ1) : θ1에 대한 함수.

θ0 = 0으로 두고 하는 경우가 많다. 알고리즘의 최선의 θ1를 찾는 것이 목표.
j(θ1)을 최소화 하도록!

'TL' 카테고리의 다른 글

20/07/28 TL Mutiple variables & Gradient Descent, 현업의 5가지 브랜치  (0) 2020.07.28
20/07/27 TL Gradient Descent  (1) 2020.07.27
20/07/25 TL  (0) 2020.07.25
20/07/24 TL 부동산 데이터셋 복습, git 튜토리얼  (0) 2020.07.24
20/07/23 TL  (0) 2020.07.24
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.