腾讯PGB,NLP算法二面面经。。。
个人太菜了,没有认真钻研,大家引以为戒,好好看看算法的细节都是为什么,遇到所有的东西都要问问为什么,对面试有好处!
1. SVM 的 优化函数公式怎么写,代价函数是什么?
2. 随机森林是怎么回事,为什么树模型好用,为什么要发明随机森林?
3. XGBOOST相对于GDBT最大的优势是什么,XGBOOST求二阶导数的好处都有什么?
4. BERT是怎么分词的?
5. Word2Vec的训练方式有哪两种?(指的是分层softmax和负采样),CBOW和SkipGram各个的优缺点都是什么?(一个计算量小,一个慢但是细致)
6. 评估模型的指标都有什么,AUC和ROC具体是什么,代表了什么属性?
还出了个字符串转换浮点数的编程题,主要是细心吧。
应该就是这些,也有可能漏了东西,不过先写这么多吧。
#面经##腾讯##算法工程师##校招#