腾讯微信支付算法面经
听说写面经会有好运😆
自然语言处理方向。从自我介绍开始到反问结束,大概40min左右。
985本硕,但是本科是轻工类😅,研究生学到的内容也是基础非常不牢。
纯纯算法小白,找23暑期实习,分享出来是希望以后也可以多看到其他人的面经😊
以下是提问内容,因为记性不好,所以有些问题的表述可能会有点出入哈~
1.最熟悉的模型+介绍原理、优劣势。(回答了BiLSTM,因此后面接着这个模型问了)
- BiLSTM耗时是LSTM的两倍吗?/两个LSTM可以同时进行吗?
- 介绍一下LSTM三个门结构。
- 遗忘门的所有输入。
- LSTM的输入一般都是什么形式?/常见的LSTM如何处理词的?
2. seq2seq输出序列是串行还是并行?
- 输出时的词是怎么得到的?
- BiLSTM/seq怎么算attention?
3. BiLSTM如果输入序列是变长,怎么处理?(先是回答了截断、补0或滑动窗口,后来在引导下回答了占位符)
- 可不可能存在占位符和某一个词的语义相似,怎么解决?
- 有没有其他方法解决序列变长?
4. 如果只用全连接层,怎么实现捕捉上下文?(没有想到,所以提示了word2vec)
- word2vec有没有用到上下文?(回答了cbow和skip-gram的大概思路)
- skip-gram怎么学习上下文的?
5. 介绍一下bigram编码。(简历上的项目有提到)
- 有没有三元的编码?什么区别?
- 分词和bigram什么区别?怎么选?
6. 介绍一下文本情感分类的项目。(简历)
- bert相比bilstm的优势?
7. chatgpt有了解吗?(还没开始学gpt)
- bert是串行还是并行输出?
- 直接并行输出能否实现?效果会比串行更好吗?
8. dropout的作用+原理?
- dropout在激活函数之前做,还是激活函数之后做?
9. 反问。
很多问题回答的不好,还要继续努力!最后希望大家都能上岸呀!🤗