百度 实习 大模型 一面

这次面试的问题都比较有意思,记录一下:
1、介绍一下之前工作的业务场景(code LLM)
2、你微调过这么多不同家的大模型(LLama、Qwen、codellam、mistral等),都有什么区别(在业务上,并不是八股结构)
3、在业务上比较有效的微调手段
4、具体代码翻译场景下,遇到的两种不同语言的函数不能完全一致对应,该用什么方法解决。
    我提出说用一些RAG可以解决
5、使用工程手段解决4好,还是使用SFT解决4好,
6、如何进行5的SFT
    我认为这是一个较难的问题,还是说之前在工作的时候是使用RAG解决的,此外又讲了一些在数据构造上的手段和prompt上的手段
7、面试官认为可以使用RLHF解决(似乎他没有完全理解我说的业务场景)
    讲了使用DPO的做法
8、讲一下DPO、PPO、GRPO、KTO
    其他的讲了,不了解KTO
8.5、为什么不考虑对Base直接做DPO

9、问DPO的数据如何构造
10、问RAG问题的痛点在哪里、优点在哪里
11、是否了解COT
    讲了另外一段NLP实习做的COT的经历
11.5、问COT从数理逻辑上为什么奏效
12、问之前具体负责了哪些工作,是否具体做过训练的内容
    表明做过(正常流程下面要问DeepSpeed了,但并没有问)
13、问Attention上都有哪些优化措施
    把GQA和FlashAttention搞混了

好像这次面的比较差,可能要挂,来攒攒人品
全部评论
过了没佬,度一面就这么猛,是文心部门吧,真卷
点赞 回复 分享
发布于 04-12 02:16 浙江

相关推荐

今天老师给大家分享大模型项目准备经验,供各位同学参考学习。1️⃣大模型流程✅数据处理:1.参考 deepseek 、 llama 、 qwen 等技术报告的数据清洗工作;2.强烈建议使用 Data - Juicer 做启发式数据清洗工具;3.做数据多样性探索,保证 Prompt 的多样性;4.做数据质量增强,用强基座做数据改写等。做拒绝采样保证 response 的" Online "性质。✅开始训练:1.卡多做 CPT ,没卡就基于 Base 模型做 Post - Training ;2.不同规则的模型调参差异大,参考大厂技术报告和其他博客;3.试试不同的训练策略,有挺多 fancy 的增量预训练和 Post - Training 方法,多试试;✅评估 Case :1.在常见的 Benchmark 上看看效果,脚本都有现成的;2.不要只看指标和 loss ,多分析 case ,知道加什么数据,摸清模型的边界能力,持续迭代优化模型能力;3.基座或者 Chat 作为 Baseline ,对比看看效果。2️⃣做一个垂域大模型项目资源准备:你需要准备至少4张3090级别的显卡,核数足够多的 CPU 。✅前期准备:1.调研业务,设计业务场景,分析可行性(数据,技术,实用性);2.会爬虫;3.需要留钱买 API ;✅数据处理:1.爬的数据很脏,一定要做数据清洗;2.如果垂域没那么垂直,比如法律方向,大概率 Base 模型见过了,可以选择不做垂域和通用的数据配比;评估 Case :搞两个 Benchmark ,垂域和通用的,通用不能掉点太多;评估下一致性,从训练集里按任务分层抽样看看 case ;3️⃣做一个大模型应用做完上面两个项目后,其实都可以在此基础上构建一个大模型应用,目前最多的就是 rag 或者 agent 嘛,讲讲如何构建一个 RAG 。✅前置能力:1.学下 Langchain 和 Llama - index ;2.看看简单的 workflow 怎么做的,强烈推荐看看 Anthropic 的《 Building effective agents 》;3.有一定的工程能力。✅参考框架:1.Langchian- Chatchat ,之前笔记就推荐了, rag 很有影响力的开源项目,而且可优化点多;2.Qanything;3.自己手搓个 workflow .可优化点:内容供给;重排策略;微调 embedding ;意图分流单独训个 agent ;优化归纳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系
点赞 评论 收藏
分享
评论
点赞
6
分享

创作者周榜

更多
牛客网
牛客企业服务