#面经#背景工作4年,长期从事深度学习相关工作。目前的主要方向是垂直领域大模型和RAG相关项目。 xdm本期要5个点赞!!有点赞继续分享面试问题1. LoRA原理,微调的哪些层,相关训练参数设置, epoch、learning_rate等等2.RAG 切片怎么做的?3. 微调中遇到了哪些问题,怎么解决?4. embedding 召回优化5. 原生模型复读不严重,为什么微调后复读严重? 感觉现在模型不咋重复了。。6. 领域知识能不能通过LoRA微调得到7. 如何解决大模型幻觉?或者说如何缓解吧8. loss 除以 10 和学习率除以10 有区别没?主要考优化器9. self-attention为什么要做qkv的线性变换?一开始听着这个题目,懵的10.机器学习懂不懂?11. self-attention 为什么 要做softmax?给你两个字符串,比如s1=acdk, s2=ckad,每次可以把s1的任意一个字母移动到末尾,问最少移动次数使s1=s2。如果不存在,则返回-1;题目:没见过,做不来。很想开cursor给它秒了。。。#牛客创作赏金赛#点赞给个鼓励吧~ 祝我们都拿到满意的offer!#ai智能作图#