快手一面
讲实习讲论文,问了几个很简单的问题,第一篇论文和lora的区别还有和drop out的区别,然后还有归一化一般用什么,当时深入讲了下自己对lora的理解还有BN以及LN的优劣,以及为什么transformer base的模型用LN,好像还说了下BN LN训练的过程和平移 scale参数的作用,面了快五十分钟出了道合并区间,然后让讲讲思路,过一个小时左右约二面。
#快手##腾讯##字节##百度#
希望之后能一切顺利🥹
最后图书馆镇楼