大模型算法面经-京东

#面经#背景
工作4年,长期从事深度学习相关工作。目前的主要方向是垂直领域大模型和RAG相关项目。  

xdm本期要5个点赞!!有点赞继续分享

面试问题
1. LoRA原理,微调的哪些层,相关训练参数设置, epoch、learning_rate等等
2.RAG 切片怎么做的?
3. 微调中遇到了哪些问题,怎么解决?
4. embedding 召回优化
5. 原生模型复读不严重,为什么微调后复读严重?  感觉现在模型不咋重复了。。
6. 领域知识能不能通过LoRA微调得到
7. 如何解决大模型幻觉?或者说如何缓解吧
8. loss 除以 10 和学习率除以10 有区别没?主要考优化器
9. self-attention为什么要做qkv的线性变换?一开始听着这个题目,懵的
10.机器学习懂不懂?
11. self-attention 为什么 要做softmax?

给你两个字符串,比如s1=acdk, s2=ckad,
每次可以把s1的任意一个字母移动到末尾,问最少移动次数使s1=s2。如果不存在,则返回-1;

题目:没见过,做不来。很想开cursor给它秒了。。。#牛客创作赏金赛#

点赞给个鼓励吧~ 祝我们都拿到满意的offer!#ai智能作图#
全部评论
大佬,pdd 考虑不嘛哈哈
点赞 回复 分享
发布于 2024-12-14 21:18 上海

相关推荐

评论
12
37
分享

创作者周榜

更多
牛客网
牛客企业服务