岗 nlp/机器学习/大模型老哥人很好,部门深度学习相关1.自我介绍2.讲下论文(盘的很细,从开始到结尾每个细节都问到了)3.bert roberta 区别4.transformer里注意力机制演进(MHA,GQA,MQA,MLA)5,MLA怎么与RoPE结合的论文还是得看啊xdm手撕:self attention进一步MHA怎么实现,改一下实现一个linear(顿了一下,最后实现了个y = wx + b,最后也是感觉少写了一维)求别凉555---------------------------------8.12更新,被分享力