如何把BERT用到文本生成中

在知乎上提了问题没有人理,来牛客看看有没有大佬可以帮助我。最近在尝试把BERT模型放入seq2seq中,但是效果不好,不怎么收敛。我是直接把GRU encoder换成了BERT,然后decoder依旧是GRU,优化方式是ADAM,但是loss下降不下去,不管怎么调整学习率都没什么用。想问问大家这是为啥,是BERT跟RNN不兼容吗 。感觉换一个强大的预训练过的encoder不应该更好吗?我的数据量并不大,就8万左右。如果不能这样使用BERT,那有啥办法可以把BERT用到seq2seq任务中吗。谢谢各位大佬!!!

#机器学习##深度学习##人工智能#
全部评论
有一种思路,利用bert的next sentence,把后句mask成自回归,用前句生成后句
1 回复 分享
发布于 2019-11-06 11:52
我刚刚入门nlp,等大佬来解答
点赞 回复 分享
发布于 2019-06-09 13:25
用bert做word embedding
点赞 回复 分享
发布于 2019-06-09 13:31
用bert做的多标签文本分类
点赞 回复 分享
发布于 2019-06-09 13:32
编码器用gru,你的误差没办法传播到编码层的多头注意力层里,要不然就是你的嵌入层有问题
点赞 回复 分享
发布于 2019-06-09 14:11
bert不适合文本生成
点赞 回复 分享
发布于 2019-06-09 16:11
不是说bert做文本生成是雷区么。。
点赞 回复 分享
发布于 2019-06-09 20:43
我也在做差不多的东西 BERT提取的特征是矩阵形式, 768 * 自己设的句子长度(包括CLS和SEP), 如果用transformer解码就用整个矩阵做decoder的输入(K和V),如果用GRU解码就用CLS对应的向量做GRU的hidden state 有好的想法可以交流一下
点赞 回复 分享
发布于 2019-06-09 23:27
Bert 是通过DAE方式来预训练的,其学习到的是词的上下文表征信息,而学习不到这种词与词之间的组合信息。 这些都需要看你 Decoder 的部分,可以看看GPT 和 MASS 是怎么做的。  最新的 XLNet 可以解决你这个烦恼,问题是,***又要学,,学不动了啊。
点赞 回复 分享
发布于 2019-06-22 22:11
BERT模型直接拿来当作编码部分?
点赞 回复 分享
发布于 2019-10-21 22:08

相关推荐

Yushuu:你的确很厉害,但是有一个小问题:谁问你了?我的意思是,谁在意?我告诉你,根本没人问你,在我们之中0人问了你,我把所有问你的人都请来 party 了,到场人数是0个人,誰问你了?WHO ASKED?谁问汝矣?誰があなたに聞きましたか?누가 물어봤어?我爬上了珠穆朗玛峰也没找到谁问你了,我刚刚潜入了世界上最大的射电望远镜也没开到那个问你的人的盒,在找到谁问你之前我连癌症的解药都发明了出来,我开了最大距离渲染也没找到谁问你了我活在这个被辐射蹂躏了多年的破碎世界的坟墓里目睹全球核战争把人类文明毁灭也没见到谁问你了😆
点赞 评论 收藏
分享
点赞 10 评论
分享
牛客网
牛客企业服务