Deep Bayes: Adaptive skip-gram

Introduction

这里记录的是skip-gram模型的改进。转载请注明。
Ref:Deep Bayes slides

Skip-gram model

图片说明
图片说明
图片说明
Distributional hypothesis: similar words appear in similar contexts.
Gradient update:
图片说明

Summary

learns high-quality semantically rich embeddings
Sparse gradients
Very efficient parallel training

Problem

For some words only one meaning is captured.
For other meanings get uncontrollably mixed up.

Solution: latent-variable model

Latent-variable skip-gram
图片说明
图片说明

Training via variational EM

observed variables: 图片说明
Hidden variables: 图片说明
Parameters: 图片说明
图片说明
图片说明
图片说明
图片说明
图片说明

Chinese Restaurant Process

图片说明

图片说明

Summary

这篇记录了如何通过非参数先验去解决skip-gram一词一意切表达能力不足的问题,通过使用sticking process建模Dirichlet Process以及使用stochastic variational inference来解决这些问题,而且效率还行。

算法小屋 文章被收录于专栏

不定期分享各类算法以及面经。同时也正在学习相关分布式技术。欢迎一起交流。

全部评论

相关推荐

01-02 20:08
马鞍山学院 Java
27届学院本誓死冲击...:实习经历最好写上做了什么项目,负责什么业务,否则有点假
点赞 评论 收藏
分享
01-30 10:21
中北大学 golang
27届学院本誓死冲击...:技术栈不用搞这么详细,主要还是看实习和项目,毕竟技术栈就那点,你能写这么多,别人也可以写这么多,模版换一下换成上下的,不知道怎么排版可以去看看别人怎么写
投了多少份简历才上岸
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务