京东大模型推理算法一面二面

有点久远了,今天刚二面,总结下。
非常喜欢的面试官(一面),很帅很专业很聪明很落地很……(此处省略100字)。
二面的leader没开摄像头,never mind,我就是个渣渣,无所谓的。

记录下没答上来的点吧,大伙凑活看
1. Deepseek部署:很落地,但是具体细节忘记了,当时没及时记录下来。这个很火,建议刚入门的朋友可以多看看dpsk新技术。
2. Treereduece:不知道,只知道ringreduce
3. mooncake:新技术,答到KTransformer(CPU+GPU异构加速)的时候,面试官提到的
4. EP dispatch combine
5. Pd分离 Deepseek - dual pipline chunked prefill
6. 多卡分布式训推
7. GEMM和GEMV实现和优化上的区别
8. contiueous batching
9. chunked batching
10. Offloading:系统资源不够用的时候,卸载用不到的kvcache,或者没有被激活的专家等等
11. GPU命中率

场景:
1. 分布式部署的时候怎么去解决io bound
2. Deepseek- MoE 部署  EP TP 部署优劣对比

评价:猜你没有看过vllm源码+对分布式了解还不够,然后也说了分布式需要资源,这也是实习的意义


二面:
1. 为什么会有KVcache?为什么没有Q cache?(正好以前研究时候手撕过,设想一个你好的prompt,模型也回答你好,关键地方在于对于同样一个token,kv embedding的时候是同样的结果)
2. Cuda除了gemm还做过哪些?(没有)
3. 学这些东西用了多久?(两个月。。答长了,怕觉得我,学了这么久还这么垃圾。答短了,怕觉得我,才学这么点时间,垃圾。当然,长还是短,看他咯)
4. 以后啥安排?会定居北京吗?(回答对象、父母安排,意向是留在北京,机会多些)提到租房,问我了解京东附近房价吗?(闲聊)
5. 叫我做好准备,工作强度不低,弱弱的问了一句时间,大概是10-8,还行吧,和学习的时间比起来这都还好。
6. 说我不够底层,确实吧,还得学啊,路漫漫其修远兮,吾将上下而求索

参考连接:
为什么加速LLM推断有KV Cache而没有Q Cache? - 莫叶何竹的回答 - 知乎
https://www.zhihu.com/question/653658936/answer/107469197025

Mooncake (1): 在月之暗面做月饼,Kimi 以 KVCache 为中心的分离式推理架构 - ZHANG Mingxing的文章 - 知乎
https://zhuanlan.zhihu.com/p/705754254

讲解的非常好,不是那么有基础的同学都可以试着了解一下【KTransformers 团队分享异构推理架构思路:基于内存的大模型推理成本优化】 https://www.bilibili.com/video/BV1VNQrYGEad/?share_source=copy_web&vd_source=0b7a45021acc545f42356bf3b2bb7080
全部评论
oc了吗
点赞 回复 分享
发布于 04-23 09:55 辽宁
点赞 回复 分享
发布于 04-18 11:27 香港

相关推荐

✅一面1️⃣深挖多模态论文2️⃣介绍transformer架构3️⃣详细说一下Decoder的因果注意力 QKV分别来自哪4️⃣Attention为什么要做scaled 不做会怎么样 为什么用根号d_k5️⃣Transformer怎么做加速训练(KV缓存) 训练和推理有什么区别(并行化)6️⃣深挖多模态大模型论文用的video-llama 讲一下大模型的结构7️⃣论文用了CoT讲一下论文的CoT是怎么样的8️⃣微调用的LoRA介绍一下LoRA9️⃣LoRA初始化怎么做的,用的秩是多少,为什么不选其他的数1️⃣0️⃣知道deepspeed和megatron吗?分别介绍一下1️⃣1️⃣论文用的deepspeed详细讲了一下三个stage分别是什么✅二面1️⃣深挖多模态和大模型的论文2️⃣Decoder文本生成有哪几种方法3️⃣还知道哪些多模态大模型4️⃣介绍一下ALBEF、BLIP5️⃣BLIP2的结构是什么  两阶段怎么训练的 有哪些损失6️⃣知道PEFT吗 讲一下LoRA7️⃣还有什么微调方法 -> prefix-tuning和P-tuning 两者分别是怎么做的 为了解决什么提出的8️⃣后面就是一些场景题✅三面1️⃣深挖论文2️⃣讲一下multi-head attention 用pytorch手撕一下 要可以实现cross attention的3️⃣讲一下你用的大模型是什么结构 特征是怎么喂给大模型的4️⃣大模型训练为什么不用SFT5️⃣LoRA是什么?有什么好处6️⃣知道RLHF吗?讲一下训练流程7️⃣接下来就是好几个场景题,电商相关的,用大模型解决prompt应该怎么设计,怎么处理prompt的输出,怎么过滤错误格式的输出📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
字节跳动三面457人在聊 查看23道真题和解析
点赞 评论 收藏
分享
补发一下之前面试腾讯的面经,具体timeline可以参考前面的帖子。一面(约30mins):自我介绍,挑一个简历里最好的一个项目详细介绍下项目中遇到了什么挑战,怎么解决的了解DeepSeek吗,为什么DeepSeek现在这么火?说一下DeepSeek里的MLA和GRPOGRPO和DPO,PPO,RLHF的区别看你之前有LoRA微调DeepSeek的项目,简单说说微调经验,效果如何RAG在检索阶段能有哪些优化?(sub-query,HyDE等)二面(约1h10mins):自我介绍,拷打简历。写一下GRPO的公式先屏幕共享从头到尾walk through讲一下DeepSeek技术报告论文。面试官中间会穿插提问DeepSeek-v3/r1/r1-zero有什么区别DeepSeek-r1-zero的冷启动数据是怎么组成的DeepSeek-r1-zero解决了DeepSeek-r1的哪些问题如何解决大模型的幻觉Embedding如何微调(讲了对比学习啥的)RAG的评测指标有哪些业界现在function call的做法和水平场景题:大致是RAG中检索结果遇到张冠李戴的问题该如何解决举几个例子能够体现你的研究能力三面(约30mins)拷打LoRA微调项目,问了实验的数据集,参数设置,结果如何等等你目前的研究方向主要是什么?讲一下ReRanker的目的,做法有哪些场景题:我现在运用RAG来检索回答,目标是检索四个季度的表格数据,但是经过检索+ReRanker后只出现了三个季度的数据,该如何解决hr面(约15mins)比较常规,大致如下:用三个词语描述下你为何能胜任这份工作你的优缺点都说一下你过往实习项目中遇到过的最大困难是什么,怎么解决的最早实习时间,实习时常引流:腾讯字节阿里淘天美团拼多多#暑期实习##腾讯##大模型#
Rafae1:接好运
查看27道真题和解析
点赞 评论 收藏
分享
评论
2
18
分享

创作者周榜

更多
牛客网
牛客企业服务