大模型算法面经-京东

#面经#背景
工作4年,长期从事深度学习相关工作。目前的主要方向是垂直领域大模型和RAG相关项目。  

xdm本期要5个点赞!!有点赞继续分享

面试问题
1. LoRA原理,微调的哪些层,相关训练参数设置, epoch、learning_rate等等
2.RAG 切片怎么做的?
3. 微调中遇到了哪些问题,怎么解决?
4. embedding 召回优化
5. 原生模型复读不严重,为什么微调后复读严重?  感觉现在模型不咋重复了。。
6. 领域知识能不能通过LoRA微调得到
7. 如何解决大模型幻觉?或者说如何缓解吧
8. loss 除以 10 和学习率除以10 有区别没?主要考优化器
9. self-attention为什么要做qkv的线性变换?一开始听着这个题目,懵的
10.机器学习懂不懂?
11. self-attention 为什么 要做softmax?

给你两个字符串,比如s1=acdk, s2=ckad,
每次可以把s1的任意一个字母移动到末尾,问最少移动次数使s1=s2。如果不存在,则返回-1;

题目:没见过,做不来。很想开cursor给它秒了。。。#牛客创作赏金赛#

点赞给个鼓励吧~ 祝我们都拿到满意的offer!#ai智能作图#
全部评论
大佬,pdd 考虑不嘛哈哈
点赞 回复 分享
发布于 2024-12-14 21:18 上海

相关推荐

最近有同学面试AI产品经理时,遇到了这个问题,今日和大家分享一下~面试官:如何减轻大模型的幻觉问题?在AI产品中大模型幻觉问题非常普遍,减轻大模型幻觉问题可从技术优化、产品设计、用户交互和持续迭代四个维度综合施策。1. 技术层:增强模型的“事实核查”能力- 检索增强生成(RAG)‌:结合外部知识库(如维基百科、行业数据库)实时检索,确保生成内容基于最新、可信数据。例如,New Bing通过接入搜索引擎实现动态信息整合。- 微调与对齐‌:在预训练后,用高质量标注数据(标注事实性错误)对模型进行微调,强化“不确定时拒绝回答”或“引用来源”的能力。- 置信度评分与阈值控制‌:模型对生成内容输出置信度分数,低置信度时触发回退机制(如切换至检索模式或提示用户核查)。2. 产品层:引导用户合理预期与交互- 明确能力边界‌:在用户界面标注模型局限性(如“可能包含不准确信息”),避免用户过度依赖生成结果。- 实时反馈与标注‌:- 对高风险领域(医疗、法律)的答案自动标注警示,并提供“验证来源”按钮。- 生成内容附带来源引用(如“根据2023年XX研究”),提升可信度。- 用户纠错机制‌:设计一键反馈入口(如“报告错误”),收集幻觉案例用于模型迭代。3. 评估与监控:构建事实性指标体系- 自动化评估‌:引入事实性评测工具(如FactScore、TruthfulQA),定期测试模型在关键领域的准确性。- 人工审核Pipeline‌:对高频场景(如新闻摘要、知识问答)建立抽样审核流程,识别潜在幻觉模式。- 实时监控‌:部署异常检测系统,拦截明显矛盾或反常识内容(如“太阳从西边升起”)。4. 迭代策略:数据与场景的持续优化- 领域自适应‌:针对垂直场景(金融、医疗)补充专业数据,降低开放域幻觉风险。- 多模态融合‌:结合图文、结构化数据等多模态输入,提升上下文理解准确性(如用图表辅助生成财务分析)。- 用户行为分析‌:优化提示设计(如要求用户提供背景信息),减少模糊查询导致的幻觉。#牛客AI配图神器#  #聊聊我眼中的AI#  #产品经理#  #Ai产品经理#
点赞 评论 收藏
分享
评论
13
44
分享

创作者周榜

更多
牛客网
牛客企业服务