2023秋招nlp算法面经
目前收获: bat两个oc一个评估中,其余互联网oc*2
积点功德,等更多oc,offer
面试oj题:
1. 字典树构建,用字典树做搜索/分词; 求平方根
2. 编辑距离,正则表达式匹配,寻找两个有序数组中位数,合并k个升序链表变体,岛屿数量,二叉树层次遍历,二叉树最大路径和,数组中第k大的元素等(lc hot100)
3. python解析json结构,正则表达式匹配(re)
4. 手撕: multihead self attention, logistic regression, layernorm(pytorch可用)
大模型:
今年nlp面试感觉逃不了大模型
1. deepspeed框架介绍
2. lora介绍,了解什么其他高效微调方法
3. prompt tuning, instruct tuning, fine tuning差别
4. llama中per norm,rmsnorm的介绍,优劣,position embedding构造方法
5. prompt构造经验,怎样的prompt更好
业务场景:
可能是本人业务经验少,问得大部分都是“从0开始构建xxx”的问题,比如“从0开始构建推荐系统”
另外,还有很多大数据场景问题,如海量数据中敏感词检测,海量任务调度等
概率题:
绝大部分都是经典题,还有大数定理,连续分布的均值方差公式,有时需要用牛莱公式算积分(ps. 拉格朗日乘子法,一阶泰勒展开要熟悉)
积点功德,等更多oc,offer
面试oj题:
1. 字典树构建,用字典树做搜索/分词; 求平方根
2. 编辑距离,正则表达式匹配,寻找两个有序数组中位数,合并k个升序链表变体,岛屿数量,二叉树层次遍历,二叉树最大路径和,数组中第k大的元素等(lc hot100)
3. python解析json结构,正则表达式匹配(re)
4. 手撕: multihead self attention, logistic regression, layernorm(pytorch可用)
大模型:
今年nlp面试感觉逃不了大模型
1. deepspeed框架介绍
2. lora介绍,了解什么其他高效微调方法
3. prompt tuning, instruct tuning, fine tuning差别
4. llama中per norm,rmsnorm的介绍,优劣,position embedding构造方法
5. prompt构造经验,怎样的prompt更好
业务场景:
可能是本人业务经验少,问得大部分都是“从0开始构建xxx”的问题,比如“从0开始构建推荐系统”
另外,还有很多大数据场景问题,如海量数据中敏感词检测,海量任务调度等
概率题:
绝大部分都是经典题,还有大数定理,连续分布的均值方差公式,有时需要用牛莱公式算积分(ps. 拉格朗日乘子法,一阶泰勒展开要熟悉)
全部评论
问题都好难啊
手撕逻辑回归什么的,是手撕原理还是代码呢
m
m
相关推荐