康明斯 大模型实习生(20250113)

1、自我介绍
2、详细讲一下nlp项目
3、为什么选择chatglm3-6b模型,有没有对比其他模型,怎么评估的
4、怎么评估chatglm3-6b的上下文理解能力
5、RAG怎么使用的,怎么分片的,用了多少个库,Rerank模型用的哪一个,效果怎么样。
6、计算相似度都有哪些方法,对应的使用场景
7、在项目中你是更想做设计者还是负责某个模块
8、期待的实习环境
9、反问

问了几个开放性问题,没问太深入的技术。

#面试##大模型##算法工程师#
全部评论
问题三和四怎么回答呀
点赞 回复 分享
发布于 01-14 15:59 广东
关注了,佬
点赞 回复 分享
发布于 01-24 13:44 广东
请问一下,自我介绍是中文还是英文?有英文问题嘛?谢谢你
点赞 回复 分享
发布于 03-04 19:52 山西
楼主您好,请问康明斯实习对以后进互联网有帮助吗,大模型方面的话
点赞 回复 分享
发布于 03-11 19:36 北京

相关推荐

最近有同学面试AI产品经理时,遇到了这个问题,今日和大家分享一下~面试官:如何减轻大模型的幻觉问题?在AI产品中大模型幻觉问题非常普遍,减轻大模型幻觉问题可从技术优化、产品设计、用户交互和持续迭代四个维度综合施策。1. 技术层:增强模型的“事实核查”能力- 检索增强生成(RAG)‌:结合外部知识库(如维基百科、行业数据库)实时检索,确保生成内容基于最新、可信数据。例如,New Bing通过接入搜索引擎实现动态信息整合。- 微调与对齐‌:在预训练后,用高质量标注数据(标注事实性错误)对模型进行微调,强化“不确定时拒绝回答”或“引用来源”的能力。- 置信度评分与阈值控制‌:模型对生成内容输出置信度分数,低置信度时触发回退机制(如切换至检索模式或提示用户核查)。2. 产品层:引导用户合理预期与交互- 明确能力边界‌:在用户界面标注模型局限性(如“可能包含不准确信息”),避免用户过度依赖生成结果。- 实时反馈与标注‌:- 对高风险领域(医疗、法律)的答案自动标注警示,并提供“验证来源”按钮。- 生成内容附带来源引用(如“根据2023年XX研究”),提升可信度。- 用户纠错机制‌:设计一键反馈入口(如“报告错误”),收集幻觉案例用于模型迭代。3. 评估与监控:构建事实性指标体系- 自动化评估‌:引入事实性评测工具(如FactScore、TruthfulQA),定期测试模型在关键领域的准确性。- 人工审核Pipeline‌:对高频场景(如新闻摘要、知识问答)建立抽样审核流程,识别潜在幻觉模式。- 实时监控‌:部署异常检测系统,拦截明显矛盾或反常识内容(如“太阳从西边升起”)。4. 迭代策略:数据与场景的持续优化- 领域自适应‌:针对垂直场景(金融、医疗)补充专业数据,降低开放域幻觉风险。- 多模态融合‌:结合图文、结构化数据等多模态输入,提升上下文理解准确性(如用图表辅助生成财务分析)。- 用户行为分析‌:优化提示设计(如要求用户提供背景信息),减少模糊查询导致的幻觉。#牛客AI配图神器#  #聊聊我眼中的AI#  #产品经理#  #Ai产品经理#
点赞 评论 收藏
分享
评论
1
5
分享

创作者周榜

更多
牛客网
牛客企业服务