大模型算法面经-京东

大家好!我从事深度学习相关工作已有4年,目前主要专注于垂直领域大模型和RAG相关项目。

最近参加了几轮技术面试,收获了一些干货,特来分享,求个点赞支持!

这次目标:5个点赞!有了更多点赞,继续分享更硬核的内容!

面试问题汇总

  1. LoRA 微调原理:微调哪些层?常用训练参数设置:epoch、learning_rate 等。
  2. RAG 切片实现方法:如何设计和优化切片过程?
  3. 微调中的常见问题与解决方案:面试官特别关注实际踩过的坑和解决思路。
  4. Embedding 召回优化策略:如何提高召回效果和模型效率?
  5. 复读问题分析:原生模型复读不严重,微调后却复读明显,原因何在?感觉最近的模型不咋重复啊。
  6. 领域知识注入:LoRA 微调能否有效注入领域知识?效果如何?
  7. 大模型幻觉(Hallucination)解决方案:如何缓解模型幻觉问题,稳定输出?
  8. 优化器考点:Loss 除以 10 和学习率除以 10 有什么区别?
  9. Self-Attention 的线性变换 (QKV):为什么要做 QKV 线性变换?起初真懵了,为什么,你说为什么?
  10. 机器学习懂么?
  11. Self-Attention 中的 Softmax:为什么需要 Softmax?

算法题挑战 | 搞崩了...

题目: 给定两个字符串,比如 s1=acdk, s2=ckad,每次可以将 s1 中任意一个字母移到末尾,问最少移动次数使得 s1=s2。如果无法匹配,返回 -1。

感想: 没见过这题,完全懵了!一瞬间特别想开 cursor 给秒了!

最后的碎碎念:点赞求鼓励!希望大家都能拿到满意的 Offer!有更难的问题或者想了解更多面试细节,评论区见!🔥

#牛客创作赏金赛##面经##大模型##算法#
全部评论
xdm多来几个点赞收藏啊,后面继续分享
点赞 回复 分享
发布于 12-12 21:27 四川
更新下,好像被其他部门捞起来了,继续面
点赞 回复 分享
发布于 昨天 22:12 四川

相关推荐

评论
7
13
分享
牛客网
牛客企业服务