大模型算法面经-京东
大家好!我从事深度学习相关工作已有4年,目前主要专注于垂直领域大模型和RAG相关项目。
最近参加了几轮技术面试,收获了一些干货,特来分享,求个点赞支持!
这次目标:5个点赞!有了更多点赞,继续分享更硬核的内容!
面试问题汇总
- LoRA 微调原理:微调哪些层?常用训练参数设置:epoch、learning_rate 等。
- RAG 切片实现方法:如何设计和优化切片过程?
- 微调中的常见问题与解决方案:面试官特别关注实际踩过的坑和解决思路。
- Embedding 召回优化策略:如何提高召回效果和模型效率?
- 复读问题分析:原生模型复读不严重,微调后却复读明显,原因何在?感觉最近的模型不咋重复啊。
- 领域知识注入:LoRA 微调能否有效注入领域知识?效果如何?
- 大模型幻觉(Hallucination)解决方案:如何缓解模型幻觉问题,稳定输出?
- 优化器考点:Loss 除以 10 和学习率除以 10 有什么区别?
- Self-Attention 的线性变换 (QKV):为什么要做 QKV 线性变换?起初真懵了,为什么,你说为什么?
- 机器学习懂么?
- Self-Attention 中的 Softmax:为什么需要 Softmax?
算法题挑战 | 搞崩了...
题目: 给定两个字符串,比如
s1=acdk
,s2=ckad
,每次可以将s1
中任意一个字母移到末尾,问最少移动次数使得s1=s2
。如果无法匹配,返回 -1。
感想: 没见过这题,完全懵了!一瞬间特别想开 cursor
给秒了!
最后的碎碎念:点赞求鼓励!希望大家都能拿到满意的 Offer!有更难的问题或者想了解更多面试细节,评论区见!🔥
#牛客创作赏金赛##面经##大模型##算法#