百度提前批机器学习算法二面面经
百度凤巢一面面经:
1、说一下bert(transformer, embedding, pre-training)
2、论文举例的模型有什么不同
3、做两个句子的语义相似度,bert结构怎么fine-tuning
4、Bert的embedding向量怎么来的
5、attention的概念,attention的本质是什么
6、了解强化学习吗,基本概念
7、LeetCode股票买卖问题(三种情况)
百度凤巢二面面经:
1、auc相关概念
2、seq2seq+attention结构
3、BERT模型结构,分类和句子翻译如何微调
4、LR和softmax区别
5、句子相似度和词相似度
6、句子翻译出现新词怎么处理
7、代码:二维数组路径和最小
8、代码:在一个排序的链表中,存在重复的结点,请删除该链表中重复的结点,重复的结点不保留,返回链表头指针。
9、概率题:2个盒子,50个红球和50个白球,怎么放使得摸到红球概率最大(计算步骤)
非科班,计算机基础不够扎实,另外没有顶会论文,凉经
#百度##面经##机器学习##算法工程师##校招#