선형 회귀를 classification 문제에 적용하는 건 그리 좋은 방법은 아니다. 임계점을 기준으로 구분하기 때문에 오류를 낼 수도 있다. classfication에서 결과 값이 0 or 1일 지라도, 가설에서는 0보다 작거나 1보다 클 수도 있다.
Linear Regression 에선 h(x) = Θ^T * x Logistic Regression : h(x)가 0과 1 사이의 값으로 가도록 해줌. h(x) = g(Θ^T * x) = g(z) sigmoid function : g(z) = 1 /( 1+ e^(-z)) logistic function = sigmoid function =>둘 다 g를 가리킬 수 있다.
추가로 추가된 x에서 y가 1일 수 있는 가능성으로 여길 것 y = 0 or 1인 상황에서 P(y=1| x;Θ) + P(y=0|x;Θ) = 1이다.
선형 회귀를 classification 문제에 적용하는 건 그리 좋은 방법은 아니다. 임계점을 기준으로 구분하기 때문에 오류를 낼 수도 있다. classfication에서 결과 값이 0 or 1일 지라도, 가설에서는 0보다 작거나 1보다 클 수도 있다. => y = 0.5를 지나고 0 < y < 1인 sigmoid function을 적용한 Logistic Regression 사용.
Linear Regression 에선 h(x) = Θ^T * x Logistic Regression : h(x)가 0과 1 사이의 값으로 가도록 해줌. h(x) = g(Θ^T * x) = g(z) sigmoid function : g(z) = 1 /( 1+ e^(-z)) logistic function = sigmoid function =>둘 다 g를 가리킬 수 있다.
추가로 추가된 x에서 y가 1일 수 있는 가능성으로 여길 것 y = 0 or 1인 상황에서 P(y=1| x;Θ) + P(y=0|x;Θ) = 1이다.