새소식

인기 검색어

TL

20/08/19 TL. 선형회귀

  • -

오늘 할 일

세바시

문장 태깅 20개-SPA, OUR

데이터 분석 예측 1일 + 2일

영어공부

 

내일 할 일

세바시

논문 데이터셋 합치기

논문 데이터 요청

데이터 분석 예측 3일 + 4일

 


tf.constant([[4,2], [1,3]])
=> 상수형 텐서

x.numpy

tf.random.uniform(shape(2,2), minval=0, maxval = 10, dtype='int32')
=> 균등분포로 랜덤한 정수 텐서 생성

initail_value = tf.random.normal(shape=(2,2))
=>정규분포로 상수 생성

a = tf.Variable(initial_value)
=>이런 식으로 굉장히 많이 쓰임

a.assign(new_value)
=>variable a의 값을 바꿀 때 사용.
tf.GradientTape()를 사용하면 gradient를 구해준다.

------------------------------------------------------------------------------------

가설 H(x) = Wx + b

가설을 학습 데이터에 맞추기
비용(cost) : 정답과 가설 사이의 distance^2
(H(x) - y)^2

----------------------------------------------------------------------------------------

sigmoid를 적용한 logical regression의 경우, MSE를 적용한다면 local gradient만 구할 수 있고, 
global gradient를 계산할 수 없다.
=> 굴곡이 심한데, 해당 굴곡의 가장 작은 지점만 찾아가기 때문에 그것이 global gradient라고 확신할 수 없다.

1)y = 1 : -log(H(x))
2)y = 0 : -log(1-H(x))
를 cost로 쓴다.

y = 1인데, H(x)가 1이면 cost는 0이 된다. == 맞다
y = 1인데, H(x)가 0이면 cost는 무한대에 가까워진다. == 틀렸다.

경사하강법을 적용할 수 있게 하는 저 loss function을 crossEntropy라고 함.

'TL' 카테고리의 다른 글

20/08/21 TL  (0) 2020.08.21
20/08/20 TL  (0) 2020.08.20
20/08/18 TL  (0) 2020.08.18
20/08/14 TL  (2) 2020.08.14
20/08/13 TL  (0) 2020.08.13
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.