【感知算法面经十三】滴滴感知算法面经(二面)

🌈 专注分享自动驾驶算法相关技术干货内容,新闻资讯,大厂实习和秋招准备思路以及算法岗求职面经

💫 自动驾驶感知算法实习、秋招面经合集可看智驾感知算法求职面经(答案版)专栏

旷视迈驰自动驾驶感知算法实习面经》

美团自动车配送部感知算法实习面经》

小米自动驾驶感知算法实习面经》

轻舟智航自动驾驶感知算法实习面经》

博世自动驾驶感知算法实习面经》

地平线自动驾驶感知算法提前批面经》

百度自动驾驶感知算法提前批面经》

蔚来自动驾驶感知算法实习面经》

华为车Bu自动驾驶感知算法秋招面经》

理想自动驾驶感知算法秋招面经》

零一汽车自动驾驶感知算法实习面经》

商汤自动驾驶感知算法实习面经》

滴滴自动驾驶感知算法秋招面经》

酷睿程自动驾驶感知算法实习面经》

速腾聚创自动驾驶感知算法秋招面经》

该专栏主要汇总了本人在秋招和实习期间拿到的华为车Bu、小米、轻舟智航、理想、地平线、百度、美团、蔚来、旷视等多家公司Offer的感知算法面经,并将面试中的重点问题给出了参考答案,供各位同学参考。

第二轮技术面试

  • Q1:自我介绍
  • 面试官询问了发表的2D目标检测论文并考察了一些深度学习八股
  • Q2:介绍Transformer中的自注意力机制和交叉注意力机制
  • A2:
  • (一)自注意力机制:自注意力计算的是同一序列内部不同位置之间的相互关系,自注意力计算过程中的Q、K、V来自同一个特征向量。
  • (二)交叉注意力机制:交叉注意力机制是计算不同序列之间不同位置的相互关系,用于实现两个序列信息的交互过程。交叉注意力计算过程中的Q来自一组特征向量,K和V来自于一组特征向量。
  • Q3:Vision Transformer和Swin-Transformer的区别
  • A3:
  • (一)计算量的区别:Vision Transformer是对输入计算全局注意力特征,其自注意力的计算量与图像的大小成正比。而Swin Transformer将自注意力的计算限制在了一个窗口内,显著降低了自注意力的计算量。

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

本人在24届秋招拿到了华为车Bu、理想、地平线、百度等多家车企的智驾感知算法岗位,该专栏汇总了本人在智驾感知算法求职/实习期间的面经,并且把面经中的问题标注了参考答案,供学弟学妹们复习的过程中进行参考~

全部评论

相关推荐

评论
1
1
分享

创作者周榜

更多
牛客网
牛客企业服务