TL

20/08/19 TL. 선형회귀

Soko 2020. 8. 19. 19:15

오늘 할 일

세바시

문장 태깅 20개-SPA, OUR

데이터 분석 예측 1일 + 2일

영어공부

 

내일 할 일

세바시

논문 데이터셋 합치기

논문 데이터 요청

데이터 분석 예측 3일 + 4일

 


tf.constant([[4,2], [1,3]])
=> 상수형 텐서

x.numpy

tf.random.uniform(shape(2,2), minval=0, maxval = 10, dtype='int32')
=> 균등분포로 랜덤한 정수 텐서 생성

initail_value = tf.random.normal(shape=(2,2))
=>정규분포로 상수 생성

a = tf.Variable(initial_value)
=>이런 식으로 굉장히 많이 쓰임

a.assign(new_value)
=>variable a의 값을 바꿀 때 사용.
tf.GradientTape()를 사용하면 gradient를 구해준다.

------------------------------------------------------------------------------------

가설 H(x) = Wx + b

가설을 학습 데이터에 맞추기
비용(cost) : 정답과 가설 사이의 distance^2
(H(x) - y)^2

----------------------------------------------------------------------------------------

sigmoid를 적용한 logical regression의 경우, MSE를 적용한다면 local gradient만 구할 수 있고, 
global gradient를 계산할 수 없다.
=> 굴곡이 심한데, 해당 굴곡의 가장 작은 지점만 찾아가기 때문에 그것이 global gradient라고 확신할 수 없다.

1)y = 1 : -log(H(x))
2)y = 0 : -log(1-H(x))
를 cost로 쓴다.

y = 1인데, H(x)가 1이면 cost는 0이 된다. == 맞다
y = 1인데, H(x)가 0이면 cost는 무한대에 가까워진다. == 틀렸다.

경사하강법을 적용할 수 있게 하는 저 loss function을 crossEntropy라고 함.