博文
目前显示的是 十一月, 2017的博文
Paper reading: Efficient Estimation of Word Representations
- 获取链接
- X
- 电子邮件
- 其他应用
From google brain: https://arxiv.org/pdf/1301.3781.pdf   projection layer : 投射层,maps word index to continuous vector space. ("hidden layer is removed")  projection layer input 可能是一个one hot encoding 的 vector, 就是第i个word,除了位置i是1,其他全是0。这个层没有softmax, 只是单纯的投射过程。  http://mi.eng.cam.ac.uk/~gwb24/publications/mphil.thesis.pdf   之前的 forward neural network, 用前面的词来预测这个词w(t)   Bag of words : 通过周围的词 (context),预测这个词 w(t)。不仅之前的词,被用到,之后的词也被用到。当然这个之前之后是有限制的 (time step)。   Skip gram : 通过这个词 w(t), 预测周围的词   最开始的input 应该都是one hot encoding value     最后的word vector 应该就是这个projection layer对应的weight, 每个词都会有一个N dimensional vector 表示,这个N可以是自定义的   比如2D result      Library    gensim      https://radimrehurek.com/gensim/models/word2vec.html  N 用size 来表示  sg=1 如果想用skip gram       Tensorflow word2vec:       https://www.tensorflow.org/tutorials/word2vec