大疆笔试-计算机视觉算法B卷

一、单选:
1、CLIP模型的主要创新点:图像和文本两种不同模态数据之间的深度融合、对比学习、自监督学习
2、一个3*3,stride=1,dilation=1的卷积加上一个步长为2的2*2池化,再加上一个3*3 ,stride=3,dilation=1的卷积对应的等效步长是多少:6(第一步不改变步长,第二步步长为2,第三步步长为2*3)
3、a=np.random.randn(3,3) b=np.random.randn(3,1) ,那么c=a*b的维度应该是:*是元素乘法或者torch.mul,@才是矩阵乘法或者torch.matmul,不会触发广播机制;
4、3D高斯:3D高斯无需迭代,而Nerf需要MLP计算点属性;3D高斯经过旋转、平移、缩放后仍是一个高斯函数;3D高斯不是隐式表达;通常3D高斯变2D不需要雅可比近似,某些情况下需要
5、物理空间已知的杆,能够约束相机和激光雷达多少个自由度:答案不确定,应该是3,4;
6、Pointformer不是点云的特征提取方法
7、使用KLT求解二维单应矩阵和一维单应矩阵的最少匹配点数是4,2
8、将分辨率降低一半时,精标定内参(fx、fy、cx、cy、k1、k2、k3)焦距、光心、畸变系数将分别变成(fx、fy、cx/2、cy/2、k1、k2、k3),只能搜到光心变成一半,畸变系数不变
9、神经网络的channel扩大2倍,算力扩大2倍,带宽扩大2倍
二、多选:
1、减少模型层数据和缩小输入尺寸可以降低深度学习推理的带宽需求
2、解决样本不均衡的方法有Focal Loss、数据增强、多样本欠采样
3、Dice损失常用于图像分割、目标检测、自然语言处理
4、在默认流中,所有的CUDA操作(包括kernel执行和内存拷贝)都是顺序执行的;cudaMemcpyAsync函数是异步执行;如果你没有显式地使用锁页内存,CUDA 运行时可能会选择将数据先复制到锁页内存缓冲区,然后再将数据从锁页内存传输到设备内存;任务被分配到各个Stream(流)后,这些任务确实是互不干扰、独立进行的
5、如果某个矩阵的某个特征值为0,则为奇异矩阵;不满秩;至少一个奇异值为0,是方阵
6、不是任意矩阵都能特征分解;并不是所有方阵的特征值都是实数;奇异矩阵至少有一个特征值为0;矩阵B可以分解为A和A转置,若A为行满秩,则B的特征向量一定正交
7、同一台电脑两次运算一个浮点运算的值可能不同;浮点数不满足结合律;浮点数不能批量填充0比特;正常浮点数乘除法仍是正常浮点数
8、组合导航算法中ESEKF可以最小参数化状态变量;可以有效避免奇异问题;大幅降低计算复杂性;可以提升状态估计算法精度
9、提高重复纹理环境定位感知能力的方法有调整SGBM参数,增大平滑项权重、加robust norm、高斯滤波、时域滤波
10、在DFT中频谱的分辨率和信号长度成反比;Laplacian滤波器可以用于边缘检测;非局部均值滤波器可以用于去噪并保留图像结构信息;梯度幅值和方向都重要
11、增加训练量、使用正则化、使用dropout都可以防止模型过拟合
12、KLT算法在频闪光源、重复纹理、高速机动、环境照度低的情况下效果显著下降
三、判断:
1、dropout不直接提高训练速度
2、深度可分离卷积计算量比普通卷积小
3、1*1卷积不改变空间特征,仅改变通道数
4、ICP算法局部最优是因为位姿初值不准
5、匈牙利算法能够在多目标跟踪时准确跟踪每个目标
6、物理世界的三条平行线在成像平面相交在一个点
7、cuda中H2D、kernel、D2H可以重叠执行
8、使用triplet loss训练时不一定全部使用hard triplet
9、两个随机变量独立,那么他们一定不相关
全部评论
报成图像处理岗位了,笔试题都不会😭
2 回复 分享
发布于 08-18 22:41 河北
楼主好厉害
1 回复 分享
发布于 08-19 21:12 黑龙江
这些都是看论文总结出来的吗
点赞 回复 分享
发布于 08-18 22:47 四川
十五分钟写完了 😅 居然不是代码题,难绷
点赞 回复 分享
发布于 08-20 01:49 上海

相关推荐

评论
11
47
分享
牛客网
牛客企业服务