腾讯wxg nlp算法岗 面经

#软件开发2024笔面经# (为什么wxg一共有四轮技术面啊😅,麻了

teg一面挂后,被wxg捞起来了。
3.27一面
针对简历上的简历问了很多,包括一些技术细节和实现方法。八股考察了llm和传统nlp的知识
1.chatglm2与chatglm1做了哪些改进?是怎么训练的
2.微调以后的模型会出现什么问题?如何改进
3.llm的评测怎么做的
4.bert与GPT的区别?bert的pe是怎么做的?
5.bert怎么做预训练的?下游任务有哪些?是否做过相关的项目?
然后就是代码题 最大子数组和
总时长45分钟。许愿二面……
全部评论
你只有四轮吗,我舍友面了6轮
1 回复 分享
发布于 2024-04-27 21:37 陕西
老哥能不能讲讲前三题
1 回复 分享
发布于 2024-03-30 16:16 辽宁
过了吗哥,看着还还挺常规的
1 回复 分享
发布于 2024-03-28 08:17 广东

相关推荐

03-29 23:24
已编辑
门头沟学院 算法工程师
腾讯 LLM (3+1) 🚀实习+项目占比1/2,八股1/4,代码题1/4,项目被问个底朝天1. 介绍transformers的结构以及每部分的作用以及对应的参数大小2. 介绍位置编码(绝对,相对主要是ROPE,以及Alibi(Baichuan使用的))3. 介绍目前所用的优化器,它们有何区别?项目中使用了LSTM?为什么使用它,不用Transformer?LSTM的不足和优势?优势差点没说不来🥲5. LLM多大的,是否使用并行方式,训练多久,训练过程中遇到什么难题以及如何解决?Deepspeed和Megatron对比一下有何不同,优势分别是什么?6. 你为什么选用Deepspeed?出发点是什么?PEFT的各种结构,简单总结下,各有什么好处?6. linux如何查询某个文件的前几行?回答指令你为什么使用DPO不使用PPO?出发点是什么?7. 阐述下你所了解的大模型压缩技术?并展开讲述1-2个8. 开放题:现在你有两个选择:超大模型的对话助手和很多特定领域的小模型对话助手,你会选用哪种方案?9. 代码题:1. 多头注意力机制源码、2. 对角线矩阵、三数之和、3. 快速排序、最长不重复子数组(?)10.HR就是那样子的,腾讯那边会问:你自己职业规划有什么想法?可三年或五年。面了两次都遇到了。。。#nlp算法工程师# #秋招# #算法# #互联网大厂# #大模型# #实习# #马上消费金融#
查看13道真题和解析
点赞 评论 收藏
分享
评论
17
45
分享

创作者周榜

更多
牛客网
牛客企业服务