首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >word2vec原理总结

word2vec原理总结

作者头像
全栈程序员站长
发布2022-08-29 17:58:29
发布2022-08-29 17:58:29
4120
举报

大家好,又见面了,我是你们的朋友全栈君。

CBOW与Skip-Gram模型基础:https://www.cnblogs.com/pinard/p/7160330.html

Hierarchical Softmax的模型:https://www.cnblogs.com/pinard/p/7243513.html

Negative Sampling的模型:https://www.cnblogs.com/pinard/p/7249903.html

word2vec原理总结:

1.word2vec中有两种模型CBOW和Skip-Gram,CBOW是通过上下文词来预测中心词,Skip-Gram是通过中心词来预测上下文。

2.word2vec的两种优化方式:基于霍夫曼树的Hierarchical Softmax和负采样。

Hierarchical Softmax

1.根据每个词的词频大小构建霍夫曼树,词频越高越靠近根结点。

2.初始化模型参数(每个节点参数),词向量

3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量

缺点:生僻词需要沿着树从上到下找很久 。

负采样

1.随机选neg个中心词做负例,正例是正确的中心词,1-正例=负例。

2.初始化模型参数(每个节点参数),词向量

3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/145390.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年5月1,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档