百度提前批 文新一言 大模型 一面
1.自我介绍
2.项目经历,逐条拷打
3.假设面试官什么都不懂,简短介绍transformer让其理解
transformer的结构
transformer残差连接的目的
transformer encoder的归一化是什么
cv常用的归一化是什么,和transformer归一化的区别
layernorm的公式
batchnorm推理时的方差和均值如何计算
4.RAG的流程
5.LLM Agent 技术的了解
6.除了DPO,其他的一些对齐算法的实践和了解
6.手撕题目 一个mxn矩阵 每行元素从左到右升序,每列元素从上到下升序,给定目标值判断是否在矩阵中
问思路
时间复杂度
7.正常反问
------------------
今天一天面了三场好累
----------
更新一下,共享了
----------
光速复活,早上起床看共享了,这会又显示面试中了就是不知道啥时候继续面
2.项目经历,逐条拷打
3.假设面试官什么都不懂,简短介绍transformer让其理解
transformer的结构
transformer残差连接的目的
transformer encoder的归一化是什么
cv常用的归一化是什么,和transformer归一化的区别
layernorm的公式
batchnorm推理时的方差和均值如何计算
4.RAG的流程
5.LLM Agent 技术的了解
6.除了DPO,其他的一些对齐算法的实践和了解
6.手撕题目 一个mxn矩阵 每行元素从左到右升序,每列元素从上到下升序,给定目标值判断是否在矩阵中
问思路
时间复杂度
7.正常反问
------------------
今天一天面了三场好累
----------
更新一下,共享了
----------
光速复活,早上起床看共享了,这会又显示面试中了就是不知道啥时候继续面
全部评论
我俩面的一模一样
又新又好,催更
相关推荐
11-20 16:59
华东理工大学 算法工程师 点赞 评论 收藏
分享
投票
点赞 评论 收藏
分享
点赞 评论 收藏
分享