飞猪一面-大语言模型和智能客服
1、多模态特征的融合方式(答得不太好)
2、大语言模型微调
3、Lora为什么A矩阵初始是高斯分布,B初始是全0,为什么能够用低秩的参数表示Transformer的大量参数
4、多模态知识图谱介绍,为什么骨架搭建不重新训练
剩下的记不清了
手撕LCS最长公共子序列
2、大语言模型微调
3、Lora为什么A矩阵初始是高斯分布,B初始是全0,为什么能够用低秩的参数表示Transformer的大量参数
4、多模态知识图谱介绍,为什么骨架搭建不重新训练
剩下的记不清了
手撕LCS最长公共子序列
全部评论
uu请问第三个问题有什么见解吗,以前思考过感觉没什么太好的回答
一面之后多久二面呢
请问二面考代码了吗
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享
点赞 评论 收藏
分享