【感知算法面经十三】滴滴感知算法面经(二面)
🌈 专注分享自动驾驶算法相关技术干货内容,新闻资讯,大厂实习和秋招准备思路以及算法岗求职面经
💫 自动驾驶感知算法实习、秋招面经合集可看智驾感知算法求职面经(答案版)专栏:
《旷视迈驰自动驾驶感知算法实习面经》
《美团自动车配送部感知算法实习面经》
《小米自动驾驶感知算法实习面经》
《轻舟智航自动驾驶感知算法实习面经》
《博世自动驾驶感知算法实习面经》
《地平线自动驾驶感知算法提前批面经》
《百度自动驾驶感知算法提前批面经》
《蔚来自动驾驶感知算法实习面经》
《华为车Bu自动驾驶感知算法秋招面经》
《理想自动驾驶感知算法秋招面经》
《零一汽车自动驾驶感知算法实习面经》
《商汤自动驾驶感知算法实习面经》
《滴滴自动驾驶感知算法秋招面经》
《酷睿程自动驾驶感知算法实习面经》
《速腾聚创自动驾驶感知算法秋招面经》
该专栏主要汇总了本人在秋招和实习期间拿到的华为车Bu、小米、轻舟智航、理想、地平线、百度、美团、蔚来、旷视等多家公司Offer的感知算法面经,并将面试中的重点问题给出了参考答案,供各位同学参考。
第二轮技术面试
- Q1:自我介绍
- 面试官询问了发表的2D目标检测论文并考察了一些深度学习八股
- Q2:介绍Transformer中的自注意力机制和交叉注意力机制
- A2:
- (一)自注意力机制:自注意力计算的是同一序列内部不同位置之间的相互关系,自注意力计算过程中的Q、K、V来自同一个特征向量。
- (二)交叉注意力机制:交叉注意力机制是计算不同序列之间不同位置的相互关系,用于实现两个序列信息的交互过程。交叉注意力计算过程中的Q来自一组特征向量,K和V来自于一组特征向量。
- Q3:Vision Transformer和Swin-Transformer的区别
- A3:
- (一)计算量的区别:Vision Transformer是对输入计算全局注意力特征,其自注意力的计算量与图像的大小成正比。而Swin Transformer将自注意力的计算限制在了一个窗口内,显著降低了自注意力的计算量。
剩余60%内容,订阅专栏后可继续查看/也可单篇购买
智驾感知算法求职面经(答案版) 文章被收录于专栏
本人在24届秋招拿到了华为车Bu、理想、地平线、百度等多家车企的智驾感知算法岗位,该专栏汇总了本人在智驾感知算法求职/实习期间的面经,并且把面经中的问题标注了参考答案,供学弟学妹们复习的过程中进行参考~