Deep Bayes: Adaptive skip-gram

Introduction

这里记录的是skip-gram模型的改进。转载请注明。
Ref:Deep Bayes slides

Skip-gram model

图片说明
图片说明
图片说明
Distributional hypothesis: similar words appear in similar contexts.
Gradient update:
图片说明

Summary

learns high-quality semantically rich embeddings
Sparse gradients
Very efficient parallel training

Problem

For some words only one meaning is captured.
For other meanings get uncontrollably mixed up.

Solution: latent-variable model

Latent-variable skip-gram
图片说明
图片说明

Training via variational EM

observed variables: 图片说明
Hidden variables: 图片说明
Parameters: 图片说明
图片说明
图片说明
图片说明
图片说明
图片说明

Chinese Restaurant Process

图片说明

图片说明

Summary

这篇记录了如何通过非参数先验去解决skip-gram一词一意切表达能力不足的问题,通过使用sticking process建模Dirichlet Process以及使用stochastic variational inference来解决这些问题,而且效率还行。

算法小屋 文章被收录于专栏

不定期分享各类算法以及面经。同时也正在学习相关分布式技术。欢迎一起交流。

全部评论

相关推荐

如题,字节跳动怎么才能看到自己的面评,找hr说看不到
SoulStar:自己应该看不到,这个是字节比较保密的信息,之前有mentor加我,说他能看到,但是不能给我说,给我说了他可能就要被辞退了
点赞 评论 收藏
分享
点赞 收藏 评论
分享
牛客网
牛客企业服务