3.8 字节内容生态 日常实习 面经

1、自我介绍
2、简单介绍一个做过的项目(没做过大项目,简单讲了一个课程案例)
3、顺着项目,问了决策树有哪几种?原理是什么?
4、剪枝有哪几种?(我忘了,G)
5、了解NLP还是cv多一点?自己平时训练样本有多大?
6、怎么进行特征融合?
7、BERT原理
8、Self-Attention原理
9、和传统Attention有什么区别
10、python装饰器、迭代器、生成器(没听过这几个词,一脸懵呜呜)
11、concat()和cat()区别  (没有区别。。)
12、SQL 出了一个题,用窗口函数可以解决
13、反问
emmm感觉凉凉。。。
全部评论
怎么感觉你这个更像是数据挖掘岗位
点赞 回复 分享
发布于 2023-03-09 14:15 湖南
特征融合我知道
点赞 回复 分享
发布于 2023-03-09 14:39 甘肃

相关推荐

最近没有新增的面试了,该挂的都挂了好像我的秋招结束了,就这么滴吧,摆烂了快手——数据挖掘1. 做题——最长公共子序列2. 简历介绍实习、项目3. 项目技术1. fasttext原理,层次softmax,树构造2. LSTM更新公式3. mapreduce 原理和阶段4. minhash原理,LSH实现1. 可以优化的地方,sentence-bert精召5. BERT原理、维度、词表大小,模型结构、位置编码类型4. 反问1. 工作内容和工作性质,上下游,需求方式2. 如何沉淀技术栈和方法论【挂】快手二面——数据挖掘1. STAR法则说项目2. 八股1. 一句话概括precesion、recall、AUC指标和应用场景2. 一句话概括LR、随机森林、GBDT的区别、3. word2vec原理3. 反问1. 从问题上看重视思路,这种筛选流程是怎么样的1. 社招看经验2. 校招看基础4. 做题:无【挂】字节一面——NLP算法,挂1. 介绍项目1. 怎么做的CoT、SFT2. SFT数据集怎么构建2. Minhash原理,召回优化,怎么做语义去重1. embedding聚类,怎么聚,怎么评估聚类效果,怎么进行采样1. 超大规模聚类怎么选取类别2. 采样方案,如何保留长尾数据3. fasttext原理和选型原因4. Qwen系列模型和GPT2的diff5. deepspeed多个阶段参数分布6. 写题:最长递增子序列,老哥手把手教我写,人很好,还是把我挂了长安综合面1. 聊到哪里算哪儿,为什么选择长安2. 怎么看待大模型3. 长安在大模型领域可能的应用4. 研究方向长安技术面1. 介绍项目2. lora原理3. SFT有什么经验【拒】长安offer,给的少,拒京东 记错时间,错过一面了荣耀一面——AI工程师1. 讲项目2. 各种模型、微调各个阶段loss飞了可能的原因和解决办法荣耀二面1. 问专业研究方向2. 劝我年轻读博华为1面——AI软件开发1. 随意唠嗑2. 复盘笔试题目3. 手写最小路径4. transformer八股漫谈华为2面1. 谈数据处理流程、长尾问题发现和优化2. 数据飞轮怎么建设3. 写题华为3面1. 聊年龄专业房价发展2. 画饼3. 聊末位淘汰 和 手里做出选择的原因pdd 一面1. 怎么验证实验效果 scaling law, 策略组验证2. 训练框架1. 大量数据,魔改megtron2. 小批量,deepspeedPDD二面 忘了,工程题PDD三面 介绍项目,无反问,写链表重排题目 #我的失利项目复盘#
查看53道真题和解析 我的失利项目复盘
点赞 评论 收藏
分享
头像
11-01 19:45
已编辑
门头沟学院 算法工程师
一切都从昨天下午原以为是KPI的一面开始,没想到直接开出意外惊喜一面:自我介绍,然后讲了刚投的一篇1区论文的工作,分析整体的框架、具体的技术细节,常见的反问点(为什么这么设计、为什么有效,相比于之前的工作,主要好在哪里、最核心的贡献是什么)面试官自称是NLP背景的,然后问了一些常见的视觉和多模态大模型的模型结构、损失函数设计、训练及推理过程等(面试官有可能是故意扮猪吃老虎哈哈)Coding:最接近的三数之和;共享屏幕本地IDE,秒了一个n^2logn的做法,让进一步优化,最优解是双指针;不过面试官觉得编码能力应该可以,实现很快,提示完直接让过了原本以为月底发一面是KPI,结果面试官问我后面还有没有时间,现场约二面,等面试官进会议二面:自我介绍,二面面试官非常重量级(进会议的title和面试的深度广度全都拉满了)首先很深入了聊了相当多关于MLLM的内容:介绍一些MLLM的现状,再选一个近期的多模态大模型,介绍相较于CLIP、LlaVA早期版本进行了哪些改进: Qwen技术点比较多,之前没系统整理过,说了自己还有点印象的Intern-VL2,不过上次看Intern-VL2的论文已经是三个月前了,大概只答上两点比较核心的。然后继续深挖目前多模态大模型在数据层面相较于之前的改进,这个没答上来之后被面试官深挖了LoRA,可以说LoRA的每一个细节的角落全都被挖的干干净净,还有不少开放性思考题,甚至比上次小鹏CV大模型一面面试官挖的还狠得多。不过上次被拷打之后就很系统地整理了LoRA的相关内容,勉强答得还行吧以后再不能当git clone侠了。然后面试官针对我的专业背景(统计),深挖了几个ML、DL相关的数学层面的问题,有让共享屏幕开白板写过程和推导(不是特别难,不过挺新颖的,秋招还是第一次面试被问到这种类型的问题);紧接着针对我的Nature子刊工作中用到的Gaussian Graphical Model,讲了其与传统ML模型、神经网络和大模型的差异、区别和各自的优劣势。最后是一些相对开放性的问题:你是如何使用现代的LLM产品提高工作、学习和编码效率的?为什么这种方式有效果?LLM、LVM、MLLM未来发展的方向和前景大概是怎样的?整个二面的问题不止这些,太多了,又深又广,很多具体已经记不太清了,而且回答的过程中几乎都有进一步反问,深挖了很多东西二面面完,面试官也是直接当场联系三面面试官三面:自我介绍,三面面试官更是整个集团的技术大佬,NLP相关经验非常丰富,整场面试问的内容也偏NLP相关,我之前几乎0 NLP相关经验,汗流浃背了可以说,不过好在基础还行,凭自己的做CV和MLLM的积累,基本都答上了首先介绍了之前lab实习中做的LLM剪枝优化迁移的工作,然后深挖了相关的技术细节,不过刚聊完电脑音频直接罢工了,重新约到11.1下午11.1下午完整描述CLIP的原理、架构、工作过程、怎么对齐、怎么做image caption完整描述transformer输入一个文本序列如何做下一句预测的全过程,深挖了tokenize、位置编码、MHA、FFN、损失函数、输出转换各个部分接着从我项目经历中有关传统ML的经验出发,问了一些ML相关的八股,难度不大然后是偏主管面的一些内容:对工作环境的期望、自身性格优缺点等反问环节逮住大佬问了目前MLLM的相关业务和技术现状;最后是关于面试流程上的一些问题总体体验非常棒的三轮面试拷打深度广度强度高,但是也学到了非常多的东西,这也算是对自己能力的一种认可吧现在想想当初9月份面试难度远不及现在的团子、阿里、得物、理想,却被面挂了,可能还是简历不如现在优化的好,没能突出自己的优势,也没有勇气直接投更匹配自己的岗位吧(当初为了求保底,基本都投的机器学习、数据挖掘这种最“泛”的算法岗,或许应该早点鼓起勇气直接投自驾、MLLM和CV的)。今天看到牛u们团子开奖,各种sp、ssp,确实感觉羡慕+遗憾。最后许愿一个HR面吧 #秋招#  #算法工程师#  #牛客创作赏金赛#  #新浪#
查看13道真题和解析 牛客创作赏金赛
点赞 评论 收藏
分享
点赞 9 评论
分享
牛客网
牛客企业服务