word2vec原理总结

word2vec原理总结CBOW与Skip-Gram模型基础:https://www.cnblogs.com/pinard/p/7160330.htmlHierarchicalSoftmax的模型:https://www.cnblogs.com/pinard/p/7243513.htmlNegativeSampling的模型:https://www.cnblogs.com/pinard/p/7249903.h…

大家好,又见面了,我是你们的朋友全栈君。

CBOW与Skip-Gram模型基础:https://www.cnblogs.com/pinard/p/7160330.html

Hierarchical Softmax的模型:https://www.cnblogs.com/pinard/p/7243513.html

Negative Sampling的模型:https://www.cnblogs.com/pinard/p/7249903.html

 

word2vec原理总结:

1.word2vec中有两种模型CBOW和Skip-Gram,CBOW是通过上下文词来预测中心词,Skip-Gram是通过中心词来预测上下文。

2.word2vec的两种优化方式:基于霍夫曼树的Hierarchical Softmax和负采样。

Hierarchical Softmax

1.根据每个词的词频大小构建霍夫曼树,词频越高越靠近根结点。

2.初始化模型参数(每个节点参数),词向量 

3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量 

缺点:生僻词需要沿着树从上到下找很久 。

负采样

1.随机选neg个中心词做负例,正例是正确的中心词,1-正例=负例。

2.初始化模型参数(每个节点参数),词向量 

3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量

                                  

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/145390.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号