科大讯飞 nlp 一面
#面经##科大讯飞##算法##如何判断面试是否凉了#
30min
面试官人很好,也很nice,奈何自己太菜了
自我介绍
围绕实习经历、论文简单聊
最具挑战性的一段经历以及解决办法
实习用到的模型介绍
论文怎么没用大模型?(论文确实没用,说了实习阶段有简单使用过)
八股:
Transformer BERT GPT区别?
有没有自己动手写过transformer的代码实现?(我说没有,用的开源现成的。。。。。)
BERT的预训练目标和ChatGPT的预训练目标?
BERT的变体了解哪些?怎么做的?
BERT的参数量和ChatGPT参数量?
大语言模型的涌现能力?
大语言模型的预训练目标为什么大都是语言模型?(好像是这么个意思,答得不好,有知道的大佬评论区指教一下)
tensor相加的一个简单问题
算法:没有手撕就是说思路
斐波那契数列怎么做
有序数组找重复元素?(最开始说了没想好说了二分,但感觉二分做不了???我又说直接用set/哈希表,一到代码题人就傻了)
反问
30min
面试官人很好,也很nice,奈何自己太菜了
自我介绍
围绕实习经历、论文简单聊
最具挑战性的一段经历以及解决办法
实习用到的模型介绍
论文怎么没用大模型?(论文确实没用,说了实习阶段有简单使用过)
八股:
Transformer BERT GPT区别?
有没有自己动手写过transformer的代码实现?(我说没有,用的开源现成的。。。。。)
BERT的预训练目标和ChatGPT的预训练目标?
BERT的变体了解哪些?怎么做的?
BERT的参数量和ChatGPT参数量?
大语言模型的涌现能力?
大语言模型的预训练目标为什么大都是语言模型?(好像是这么个意思,答得不好,有知道的大佬评论区指教一下)
tensor相加的一个简单问题
算法:没有手撕就是说思路
斐波那契数列怎么做
有序数组找重复元素?(最开始说了没想好说了二分,但感觉二分做不了???我又说直接用set/哈希表,一到代码题人就傻了)
反问
全部评论
可以问问楼主背景嘛
可以问问楼主背景吗吗
请问一下楼主什么时候做的笔试吗
请问楼主BERT的预训练目标和ChatGPT的预训练目标有什么不同吗?感觉好像都是mlm nsp nwp哎
楼主拿到offer了吗
码住
相关推荐
礼堂纯真丁一郎:看完了,感觉老哥好不容易啊,不过想想现在已经是低谷了,无论往哪儿走都是上坡路了
点赞 评论 收藏
分享
科大讯飞 NLP算法 (N+3)k × (14-17) 硕士211
点赞 评论 收藏
分享
Lucky_77:非常全面!
点赞 评论 收藏
分享