Attentional Factorization Machines(AFM)——论文阅读笔记

引言

FM算法通过引入特征交叉和矩阵分解思想使得模型能够针对二维以上的数据进行归纳,最终的结果会受到各交叉项的影响,然而这样是不合理的,并非所有的交叉项都有内部联系。本文通过引入Attention机制,在每个交叉项前面加上一个注意力权重,权重由模型训练一步步优化,有利于忽略不合理的交叉项,提升模型精确度。

内容

图片说明
从图片中可以看出,AFM算法所做出的改进无非就是添加一个Attention网络,输入的是交叉项,输出注意力矩阵,结合交叉项本身得到最终结果。
图片说明
模型的公式如上图,在FM基础上添加了两项,P^T和a_ij:
P^T是权重矩阵,a_ij是交叉项的注意力评分,通过正向传播得到。
图片说明
a_ij的计算是通过交叉项的激活函数输出,再用softmax归一化得到。

总结

AFM=FM+Attention

全部评论

相关推荐

躺尸修仙中:因为很多92的也去卷中小厂,反正投递简历不要钱,面试不要钱,时间冲突就推,不冲突就面试积累经验
点赞 评论 收藏
分享
粗心的雪碧不放弃:纯学历问题,我这几个月也是一直优化自己的简历,后来发现优化到我自己都觉得牛逼的时候,发现面试数量也没有提升,真就纯学历问题
点赞 评论 收藏
分享
点赞 收藏 评论
分享
牛客网
牛客企业服务