SHEIN-算法-一面面经

  1. Transformer的多头注意力的作用面试官首先问到了Transformer模型中的多头注意力机制,要求我解释其作用和优势。
  2. blip2的架构,优势和之前多模态模型的区别接着,面试官让我详细描述blip2的架构,并比较其与之前多模态模型的区别和优势。
  3. 知识蒸馏和无监督样本训练然后,面试官询问了关于知识蒸馏和无监督样本训练的相关知识,要求我解释两者的概念和应用场景。
  4. 无序数组的中位数面试官还给出了一个无序数组,要求我找出其中位数,并解释我的解题思路。
  5. 一个元素在一个有序数组的第一次出现位置最后,面试官让我编写一个算法,找出一个元素在有序数组中第一次出现的位置。
全部评论
为什么我一面是hr面
点赞 回复 分享
发布于 09-13 12:53 上海
能问下佬是什么方向嘛
点赞 回复 分享
发布于 09-17 19:10 湖南

相关推荐

废铁汽车人:秋招真是牛鬼蛇神齐聚一堂
点赞 评论 收藏
分享
11-03 14:38
重庆大学 Java
AAA求offer教程:我手都抬起来了又揣裤兜了
点赞 评论 收藏
分享
2 10 评论
分享
牛客网
牛客企业服务