Machine Learning and Deep Learning

[Deep Learning] Sequence Models week2-3. Sentiment Classification and Debiasing Word Embeddings

Kkamang 2021. 6. 21. 19:00

 

Quiz 문제 중 헷갈렸던 것: 

P(t|c)를 통해서 Word Embedding(단어들의 특징 벡터) 만들고 싶은거!

Target과 Context 단어의 속성이 많이 겹칠수록 P(t|c)값이 커지는거고,

그러니까 Embedding train시킬 때에는 주변 단어가 맞으면 target=1이 되도록 Loss값을 계속 줄여나가는거! 

(그러다보면 randomly chosen되었던 Theta와 e가 점점 해당 단어의 속성을 잘 나타내는 벡터가 될테니까)