二面 前面聊了点有的没的(人生啊、规划啊之类的),然后正式进入技术面 面:介绍你之前的实习经历 我:balabala 面:看样子你很了解transformer啊,介绍一下吧 我:从encoder+decoder两方面介绍,然后encoder可以延伸到BERT-like模型,decoder可以延伸到GPT-like模型,然后又详细说了说 面:那transformer和GPT有啥区别? 我:??? 我刚刚这是白说了?无奈把刚刚说的又重复了一遍 面:能用rnn来替换self-attention嘛? 我:可以,但是存在缺陷,并行计算效率低下+无法捕...