首页 / 大模型
#

大模型

#
455410次浏览 6667人互动
此刻你想和大家分享什么
热门 最新
03-29 23:24
已编辑
门头沟学院 算法工程师
NLP算法面经10
腾讯 LLM (3+1) 🚀实习+项目占比1/2,八股1/4,代码题1/4,项目被问个底朝天1. 介绍transformers的结构以及每部分的作用以及对应的参数大小2. 介绍位置编码(绝对,相对主要是ROPE,以及Alibi(Baichuan使用的))3. 介绍目前所用的优化器,它们有何区别?项目中使用了LSTM?为什么使用它,不用Transformer?LSTM的不足和优势?优势差点没说不来🥲5. LLM多大的,是否使用并行方式,训练多久,训练过程中遇到什么难题以及如何解决?Deepspeed和Megatron对比一下有何不同,优势分别是什么?6. 你为什么选用Deepspeed?出发点是什么?PEFT的各种结构,简单总结下,各有什么好处?6. linux如何查询某个文件的前几行?回答指令你为什么使用DPO不使用PPO?出发点是什么?7. 阐述下你所了解的大模型压缩技术?并展开讲述1-2个8. 开放题:现在你有两个选择:超大模型的对话助手和很多特定领域的小模型对话助手,你会选用哪种方案?9. 代码题:1. 多头注意力机制源码、2. 对角线矩阵、三数之和、3. 快速排序、最长不重复子数组(?)10.HR就是那样子的,腾讯那边会问:你自己职业规划有什么想法?可三年或五年。面了两次都遇到了。。。#nlp算法工程师# #秋招# #算法# #互联网大厂# #大模型# #实习# #马上消费金融#
查看13道真题和解析
点赞 评论 收藏
分享
03-26 13:17
腾讯_HR
腾讯-混元大模型面经-华5硕
部门与岗位:TEG - 混元大模型团队 - 大模型对齐一面自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流了解哪些大模型,简要挑一两个介绍一下,当时说了 Qwen 和 DeepSeek,然后面试官又问了这两个有什么区别接着上一问,为什么大家都开始探索 MoE 架构,MoE 相比 Dense 有什么好处在之前实习的时候用 LoRA 微调过 Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么在 RLHF 中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式代码:22. 括号生成代码:多头自注意力一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右二面自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议之前实习用 DeepSpeed 微调过 Qwen2-72B,于是面试官问了 ZeRO-1,ZeRO-2,ZeRO-3 三个模式的区别当时你用 DeepSpeed ZeRO-3 来微调 Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存除了 DeepSpeed,还用过其他的什么优化方法吗我看你也用到了 LoRA,知道 LoRA 的原理吗,A 和 B 两个矩阵怎么初始化,有了解过其他的初始化方法吗对 RLHF 了解的多吗代码:3. 无重复字符的最长子串二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊 RLHF三面自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么 work,其他方案有考虑吗在微调 Qwen 的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的讲一下 RLHF 的流程,之前有用 RLHF 做过模型对齐吗在做对齐的时候,为什么 SFT 之后还要做 RLHF,只用 SFT 可以吗知道哪些强化学习算法,除了 PPO 和 DPO 这些呢,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进开放题:对目前大模型的发展有什么看法代码:零钱的两个题 322. 零钱兑换518. 零钱兑换 II三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导四面自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写 RLHF,平常有用过 RLHF 吗推导一下神经网络反向传播的过程一道排列组合的概率题开放题:你觉得大模型目前还有哪些可以改进的点四面整体更看重思维和基础,没有考察什么八股总结一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面需要内推码的可以用下面这个链接:内推链接:https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw#26届实习##大模型##八股##面经##腾讯##内推#
腾讯
|
实习
|
超多精选岗位
点赞 评论 收藏
分享
04-09 14:10
已编辑
上海交通大学 算法工程师
蚂蚁 Agent 转正实习-hc多多
链接:https://hrrecommend.antgroup.com/guide.html?code=1kyR9L0XfFQtcvTW6CoTv1V5CiF1AdD7eoVIj%2FDSuNQUM8KV1z4rH%2F5xNBunn8QK我们是一支决策智能算法Agent团队,参与蚂蚁金融科技FinTech的商业化赛道,有着优秀的人才资源、算法能力及丰富的业务场景;我们的工作是,应用先进的人工智能、研发智能化Agent产品及解决方案。并不断创新方法,打破业界桎梏。我们的客户,包含银行消金、证券保险、航旅出行、政府、制造,以及大量新兴互联网产业公司。当前业务正处于飞速增长阶段,各项业务线增长趋势强劲,我们也在不停地探索这块充满无限可能的领域!我们的优势:- 充足 GPU 集群算力支持, 完整的数据闭环和丰富的业务场景,涉及金融、营销、风控等场景。- 与研究和工程能力兼备的团队成员合作,专注兼顾实际效果和研究深度的大模型落地【转正实习】算法工程师-自然语言处理-LLM描述1. 推进数据建设、指令微调(SFT)、偏好对齐(RLHF)、垂直领域继续预训练等模型优化方面的工作,提高模型质量2. 优化复杂指令、长上下、多轮对话等任务下的模型基础能力3. 探索模型推理能力的增强和优化。4. 推动大模型在搜索、工具调用、多智能体场景下的模型落地5. 深入研究和探索大模型在ToB企业服务中的更多使用场景,拓展模型的应用范围,如搜索、风控、营销、金融等各类场景要求1、硕士研究生及以上学历,计算机科学、人工智能、自然语言处理等相关领域2、优秀的代码能力、数据结构和基础算法功底,Pytorch熟练,熟悉大模型训练与加速框架诸如Deepspeed/Megatron-LM等3、良好自驱力和沟通协作能力,能和团队一起探索新技术,推进技术进步加分项:有领域顶级会议文章(NeurIPS、ICML、ICLR、CVPR、ICCV、ACL、KDD等)、有编程/AI 比赛获奖(ACM/ICPC、NOI/IOI、Top Coder、Kaggle等)优先熟悉NLP相关的算法和技术,熟悉大模型预训练、SFT与RL算法者优先【转正实习】算法工程师-自然语言处理-Agent描述1、深入探索LLM Agent在业务场景的落地,推动AI技术在实际应用中的突破2、Agent研发: 1)设计并实现基于LLM的业务场景Agent,提升端到端的成功率 2)探索LLM Reasoning技术(如思维链、多步推理),提升复杂场景Agent能力 3)构建端到端系统,涵盖意图识别、知识检索、工具调用、结果生成,提升用户体验3、Agent应用探索:   1) 探索创新应用场景(如个性化知识助手、自动化RPA工具、Computer Use等),探索技术边界。  2) 探索Multi-Agent下的通信协议标准化、任务分解机制、记忆/决策模块设计等技术,提升复杂场景下的自主决策效率要求1、硕士研究生及以上学历,计算机科学、人工智能、自然语言处理等相关领域; 2、熟悉Agent架构、熟悉Prompt Engineering、熟悉开源Agent框架如Langchain、CrewAI、MetaGPT等。3、良好自驱力和沟通协作能力,能和团队一起探索新技术,推进技术进步。加分项:在ACL/EMNLP/NeurIPS等顶会发表LLM或搜索相关论文;有开源项目(如LangChain、AutoGPT)贡献或独立AI Agent开发经验;、#大模型##智能体##蚂蚁##字节##阿里##腾讯##美团##京东#
投递蚂蚁集团等公司10个岗位 校招求职吐槽
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客企业服务