大模型算法面经-京东

#面经#背景
工作4年,长期从事深度学习相关工作。目前的主要方向是垂直领域大模型和RAG相关项目。  

xdm本期要5个点赞!!有点赞继续分享

面试问题
1. LoRA原理,微调的哪些层,相关训练参数设置, epoch、learning_rate等等
2.RAG 切片怎么做的?
3. 微调中遇到了哪些问题,怎么解决?
4. embedding 召回优化
5. 原生模型复读不严重,为什么微调后复读严重?  感觉现在模型不咋重复了。。
6. 领域知识能不能通过LoRA微调得到
7. 如何解决大模型幻觉?或者说如何缓解吧
8. loss 除以 10 和学习率除以10 有区别没?主要考优化器
9. self-attention为什么要做qkv的线性变换?一开始听着这个题目,懵的
10.机器学习懂不懂?
11. self-attention 为什么 要做softmax?

给你两个字符串,比如s1=acdk, s2=ckad,
每次可以把s1的任意一个字母移动到末尾,问最少移动次数使s1=s2。如果不存在,则返回-1;

题目:没见过,做不来。很想开cursor给它秒了。。。#牛客创作赏金赛#

点赞给个鼓励吧~ 祝我们都拿到满意的offer!#ai智能作图#
全部评论
大佬,pdd 考虑不嘛哈哈
点赞 回复 分享
发布于 2024-12-14 21:18 上海

相关推荐

作为AI产品经理,大模型选型需要从业务目标、技术特性和资源投入三个维度进行系统性评估。分步骤的选型:1. 场景需求拆解- 任务类型:区分生成式(GPT)、理解式(BERT)、多模态(CLIP)等任务需求- 性能指标:明确时延要求(如对话场景<2s)、准确率阈值、内容安全等级- 输入输出:处理文本长度(如法律文本需支持10k tokens)、多语言支持需求2. 技术参数评估- 模型架构对比:Transformer层数(如LLaMA 7B vs 13B)、注意力机制差异- 性能基准测试:在HuggingFace OpenLLM Leaderboard等榜单比对MMLU/HELM得分- 领域适配性:检查是否经过垂直领域微调(如Med-PaLM 2医疗专用模型)3. 成本效益分析- 推理成本计算:API调用成本(如GPT-4 $0.03/1k tokens)vs 自建GPU集群成本- 算力需求评估:模型参数量与GPU显存关系(7B模型需至少16G显存)- 长尾运维成本:监控维护、版本迭代、安全补丁更新等隐性成本4. 工程化适配度- 部署方案验证:测试ONNX转换效果、量化后精度损失(INT8量化典型损失2-5%)- 扩展能力测试:分布式推理效率、最大并发请求承载量- 工具链完整性:配套的Prompt工程工具、评估体系、持续训练Pipeline5. 风险合规审查- 数据隐私合规:评估模型训练数据来源合法性(如排除版权争议数据)- 输出可控性:测试有害内容生成概率及防护机制有效性- 许可证审查:确认商用限制(如LLaMA商用需单独授权)6. 迭代路线规划- 短期方案:采用API快速验证(如Azure OpenAI)+ RAG增强时效性- 中期过渡:微调行业小模型(LoRA适配器方案)- 长期演进:构建混合模型架构(大模型+规则引擎+传统ML) #牛客激励计划#  #大模型#  #大模型面经#  #找工作#  #聊聊我眼中的AI#  #数据人的面试交流地#  #AI了,我在打一种很新的工#  #产品经理# #牛客AI配图神器#
点赞 评论 收藏
分享
评论
14
44
分享

创作者周榜

更多
牛客网
牛客企业服务