8.27 moka面试备忘

1.attention的种类
2.NMT为什么要引入attention,以及attention是如何使用的
3.K,Q,V的含义以及如何计算的
4.手撕算法:字符串压缩
5.梯度消失以及梯度爆炸在LSTM中如何抑制的

全部评论

相关推荐

评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务