오늘 할 일
세바시
문장 태깅 20개-SPA, OUR
데이터 분석 예측 1일 + 2일
영어공부
내일 할 일
세바시
논문 데이터셋 합치기
논문 데이터 요청
데이터 분석 예측 3일 + 4일
tf.constant([[4,2], [1,3]])
=> 상수형 텐서
x.numpy
tf.random.uniform(shape(2,2), minval=0, maxval = 10, dtype='int32')
=> 균등분포로 랜덤한 정수 텐서 생성
initail_value = tf.random.normal(shape=(2,2))
=>정규분포로 상수 생성
a = tf.Variable(initial_value)
=>이런 식으로 굉장히 많이 쓰임
a.assign(new_value)
=>variable a의 값을 바꿀 때 사용.
tf.GradientTape()를 사용하면 gradient를 구해준다.
------------------------------------------------------------------------------------
가설 H(x) = Wx + b
가설을 학습 데이터에 맞추기
비용(cost) : 정답과 가설 사이의 distance^2
(H(x) - y)^2
----------------------------------------------------------------------------------------
sigmoid를 적용한 logical regression의 경우, MSE를 적용한다면 local gradient만 구할 수 있고,
global gradient를 계산할 수 없다.
=> 굴곡이 심한데, 해당 굴곡의 가장 작은 지점만 찾아가기 때문에 그것이 global gradient라고 확신할 수 없다.
1)y = 1 : -log(H(x))
2)y = 0 : -log(1-H(x))
를 cost로 쓴다.
y = 1인데, H(x)가 1이면 cost는 0이 된다. == 맞다
y = 1인데, H(x)가 0이면 cost는 무한대에 가까워진다. == 틀렸다.
경사하강법을 적용할 수 있게 하는 저 loss function을 crossEntropy라고 함.