새소식

인기 검색어

TL

20/09/01 TL.

  • -

오늘 할 일

NLP 실습 강의 코드 분석

매일 태깅

매일 독서 - 더블린 사람들

매일 영단어

 

내일 할 일

NLP 실습 강의 코드 분석

매일 태깅

태깅 피드백

매일 독서 - 더블린 사람들

매일 영단어


lovit.github.io/machine%20learning/2019/03/17/attention_in_nlp/

 

Attention mechanism in NLP. From seq2seq + attention to BERT

Word2Vec 을 제안한 Mikolov 는 “딥러닝을 이용한 자연어처리의 발전은 단어 임베딩 (word embedding) 때문이다”라는 말을 했습니다. 단어 간의 유사성을 표현할 수 있고, 단어를 연속적인 벡터 공간 (co

lovit.github.io

 

intelligence.korea.ac.kr/members/wschoi/nlp/deeplearning/paperreview/Contextualized-Word-Embedding/

 

Contextualized Word Embedding (개념편)

본 포스트에서는 Contextual Word Embedding 개념에 대해 설명한다. ELMo[1], Bert[2]등의 Contextual Word Embedding 기술들의 디테일한 비교는 다음 포스트에서 다룰 예정이며, 본 포스트에서는 전통적인 Word Embedd

intelligence.korea.ac.kr

 

'TL' 카테고리의 다른 글

20/09/03 TL. 컴퓨터 그래픽스 기초  (0) 2020.09.03
20/09/02 TL. 컴파일러 Front End - Back End 구성 요소  (1) 2020.09.02
20/08/30 TL. GloVe, LSTM  (0) 2020.08.30
20/08/29 TL.  (0) 2020.08.29
20/08/28 TL.  (0) 2020.08.28
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.