这次面试的问题都比较有意思,记录一下:1、介绍一下之前工作的业务场景(code LLM)2、你微调过这么多不同家的大模型(LLama、Qwen、codellam、mistral等),都有什么区别(在业务上,并不是八股结构)3、在业务上比较有效的微调手段4、具体代码翻译场景下,遇到的两种不同语言的函数不能完全一致对应,该用什么方法解决。 我提出说用一些RAG可以解决5、使用工程手段解决4好,还是使用SFT解决4好,6、如何进行5的SFT 我认为这是一个较难的问题,还是说之前在工作的时候是使用RAG解决的,此外又讲了一些在数据构造上的手段和prompt上的手段7、面试官认为可以使用RLHF解决(似乎他没有完全理解我说的业务场景) 讲了使用DPO的做法8、讲一下DPO、PPO、GRPO、KTO 其他的讲了,不了解KTO8.5、为什么不考虑对Base直接做DPO9、问DPO的数据如何构造10、问RAG问题的痛点在哪里、优点在哪里11、是否了解COT 讲了另外一段NLP实习做的COT的经历11.5、问COT从数理逻辑上为什么奏效12、问之前具体负责了哪些工作,是否具体做过训练的内容 表明做过(正常流程下面要问DeepSpeed了,但并没有问)13、问Attention上都有哪些优化措施 把GQA和FlashAttention搞混了好像这次面的比较差,可能要挂,来攒攒人品