如何把BERT用到文本生成中

在知乎上提了问题没有人理,来牛客看看有没有大佬可以帮助我。最近在尝试把BERT模型放入seq2seq中,但是效果不好,不怎么收敛。我是直接把GRU encoder换成了BERT,然后decoder依旧是GRU,优化方式是ADAM,但是loss下降不下去,不管怎么调整学习率都没什么用。想问问大家这是为啥,是BERT跟RNN不兼容吗 。感觉换一个强大的预训练过的encoder不应该更好吗?我的数据量并不大,就8万左右。如果不能这样使用BERT,那有啥办法可以把BERT用到seq2seq任务中吗。谢谢各位大佬!!!

#机器学习##深度学习##人工智能#
全部评论
有一种思路,利用bert的next sentence,把后句mask成自回归,用前句生成后句
1 回复 分享
发布于 2019-11-06 11:52
我刚刚入门nlp,等大佬来解答
点赞 回复 分享
发布于 2019-06-09 13:25
用bert做word embedding
点赞 回复 分享
发布于 2019-06-09 13:31
用bert做的多标签文本分类
点赞 回复 分享
发布于 2019-06-09 13:32
编码器用gru,你的误差没办法传播到编码层的多头注意力层里,要不然就是你的嵌入层有问题
点赞 回复 分享
发布于 2019-06-09 14:11
bert不适合文本生成
点赞 回复 分享
发布于 2019-06-09 16:11
不是说bert做文本生成是雷区么。。
点赞 回复 分享
发布于 2019-06-09 20:43
我也在做差不多的东西 BERT提取的特征是矩阵形式, 768 * 自己设的句子长度(包括CLS和SEP), 如果用transformer解码就用整个矩阵做decoder的输入(K和V),如果用GRU解码就用CLS对应的向量做GRU的hidden state 有好的想法可以交流一下
点赞 回复 分享
发布于 2019-06-09 23:27
Bert 是通过DAE方式来预训练的,其学习到的是词的上下文表征信息,而学习不到这种词与词之间的组合信息。 这些都需要看你 Decoder 的部分,可以看看GPT 和 MASS 是怎么做的。  最新的 XLNet 可以解决你这个烦恼,问题是,***又要学,,学不动了啊。
点赞 回复 分享
发布于 2019-06-22 22:11
BERT模型直接拿来当作编码部分?
点赞 回复 分享
发布于 2019-10-21 22:08

相关推荐

点赞 评论 收藏
分享
一颗宏心:华为HR晚上过了十二点后还给我法消息。
点赞 评论 收藏
分享
点赞 10 评论
分享
牛客网
牛客企业服务