graso03 level
获赞
145
粉丝
38
关注
27
看过 TA
690
河北师范大学附属中学
2024
自然语言处理
IP属地:陕西
开源,但部分开源。秋招结束后整理今年所有面经
私信
关注
#如何判断面试是否凉了#职位是:【快Star】大模型应用算法工程师8.13状态显示挂了。喜提秋招第一挂9.29更新:脏了面评,轮回之中,永世不得翻身,后面再投全是“简历挂”,八次了难道我投八十一次,才能进面?但确实比较“喜”,因为这场不仅仅是拷打,更是鞭策。首先叠甲:我在llm这块确实是新手,积累确实不足,癞蛤蟆想吃天鹅肉。我对大厂不抱希望,不想抢各位爷的活干。看在这些以及我写的这么详细的份上,如果我显示出了菜,请友善讨论或者提意见,谢谢!由于讲的时间长,讲了50min,所以无coding1.让讲自己与大模型相关的项目,中间打断去询问问得非常细也比较深,会从研究的idea,这一步做的好不好来评价和讨论中间问了LoRA的原理,然后我说得不够精确,没有说低秩矩阵是理想中微调的权重差值的【估计】,面试官听起来估计认为我说的是二者等价,就很拷打(实际上我明白这个,但就讲的时候省略了)。其次面试官对lora时是否加入rag检索结果这个东西很感兴趣,我做的时候不加反而效果好,他认为很反直觉,不是很同意。(实际上普通的lora对超长上下文确实搞不定,以及我们当时lora的功能更多的是让输出的格式规范,因为试过prompt的效果并不好,这个点我两个月一直没想起来。)还有讲项目的时候任务的描述(输入输出)还是得尽量清晰,感觉得重新梳理一下我的项目2.rag与幻觉相关的场景提问首先问我项目里是否出现幻觉了。(我也没仔细看我的数据,因为全是医学专业英文名词,我也看不懂,只算指标了,罪过罪过)实际上幻觉这块我真没怎么看过,罪过,这么重要的方向其次,就是提问rag检索内容出现幻觉,或者检索内容错误or缺失,导致会生成幻觉,如何检测,至少做到拒绝回答。面试官的意思是解决方案可以是“任何手段”:我的思路是检索后先不进大模型,用一个判别器(可以是bert,可以是其他方法)判断信息是否缺失,是否会有幻觉。面试官觉得这个方法取巧,且不够所以要求方法“仅限模型”:我想了半天,最后快没时间了,补了一个在模型内可以加前缀或者标志的方法。看我想不出来,推荐我去读一读幻觉和可信度rag方面的文章。最后反问了一下技术跟进,他们要求大模型这块跟进最先进的,感觉还是挺有底气和信心的以及团队规模,还是不小的。总之,感谢这次机会,面试官很有水平,我在项目的介绍、打磨和解决问题的思路上都不足,回来继续沉淀了(我早上再也不练琴摸鱼了😭)也对手子有一些好印象了首挂,但极其有鞭策意义😵
牛客367450263号:应该和我暑期面的一个部门,当时拒了去了文心搞数据,后悔死了
0 点赞 评论 收藏
分享
#如何判断面试是否凉了#7.30 快手 50min7.31约2面了在8.98.9更新:面完感觉凉。但感谢手子给这个机会,让我明白确实能力不足,以及一些技术方向,还得沉淀。下面是一面面筋人生第一次计算机大厂面试,写详细了点### **【快Star】大模型应用算法工程师**先让自我介绍,尴尬的是我直接按时间顺序先有点详细地介绍非大模型的CV什么项目了于是在快到llm项目前被打断了,面试官说我来问吧介绍RAG项目里面出现的BM25,我从TFIDF开始介绍,前面很流利,后面BM25的那个词与query/doc的相关系数因子忘记了开始有点浑,我直接说忘记了,他说没事反正就那些玩意RAG项目的任务,语料库讲了一下为啥不用数据增强以及prompt engineering,因为研究的idea不同我主要讲了一下研究idea和challenge的任务讲得挺多,导致问得不多项目里推理加速怎么搞的,他说他也不了解,我说巧了我也不了解,但我把我怎么弄的到最后实现了推理加速说了PEFT讲了讲,说了lora和ptuningv2,但没详细问着重有问RLHF和强化学习,我不是很了解。我讲强化学习的过程和概念,知道有这么个事情coding:最长回文子串,拉了坨小的看我dp不是很流利,就让我暴力了暴力了给n3然后说试试dp,dpij的含义半天不知道,他说不用想了,给我说了hh后面和同学看原来还有马拉车这样的on算法,我算是拉了但是对方也没有说表现出来,还是比较耐心地教我了dp的解hhh然后反问正常情况早10晚10好奇业务在做什么,说是理解、生成以及id、聚合相关的东西,我这边就不说了,但他介绍得还不浮于表面,挺好的#如何判断面试是否凉了#
0 点赞 评论 收藏
分享
关注他的用户也关注了:
牛客网
牛客企业服务