8.27 moka面试备忘

1.attention的种类
2.NMT为什么要引入attention,以及attention是如何使用的
3.K,Q,V的含义以及如何计算的
4.手撕算法:字符串压缩
5.梯度消失以及梯度爆炸在LSTM中如何抑制的

全部评论

相关推荐

不愿透露姓名的神秘牛友
昨天 16:28
点赞 评论 收藏
分享
点赞 评论 收藏
分享
评论
点赞
收藏
分享
牛客网
牛客企业服务