牛客699906157号:查看图片
0 点赞 评论 收藏
分享
投递深信服等公司8个岗位 >
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
工匠:第6点就写错了,transformer 训练的时候 decoder端也是并行的,采用teacher forcing的方式,然后有个 shift label,每次只预测当前位置的下个位置,通过mask的方式进行了并行。inference的时候 才是跟传统的seq2seq一样,一个接一个的解码。
0 点赞 评论 收藏
分享
创作者周榜
更多
关注他的用户也关注了: